LeacH
9 lutego 2019, 00:37
zamiast na takich rzeczach skupiliby się na własnych produktach. Bo u nich optymalizacja leży i kwiczy. Nie znam osoby, która nie narzekałaby na ich optymalizacje - szczególnie lubowanie się w zegarach i używaniu ~25% dostępnych zasobów (szczególnie teraz gdy 12-16 rdzeni zawita pod strzechy). W końcu montaż i rendering w 4K na używanych 4 rdzeniach to jest świetna sprawa. Tak samo jak grafika nieużywana przysparza im samych nowych klientów.
Ale widać, że każdy chce mieć swoje zabawki - tylko co się stanie jak moda przeminie i co dalej? AWS i Google mają sens dla swoich DC - a oni chcą wejść na drogi i wyspecjalizowany rynek. W dodatku z ARM? Kto będzie tego używał?
A ARM to nie jest przyszłość - zobaczymy co się stanie jak AMD i Intel dogadają się i zrzucą masę instrukcji typu legacy z procesora - wtedy się okaże, że nie jest tak wcale źle. Zresztą na moje oko z 50% instrukcji nie ma sensu - niepotrzebnie tyko żrą prąd i miejsce w jądrze.
39
ElProblemos
9 lutego 2019, 00:50
Niech oni lepiej za to się nie biorą bo znając ich po Flash Player'ze ich procesor będzie miał więcej dziur i backdoor'ów niż cepy Intela. :E
39
anemus
9 lutego 2019, 01:12
Cóż.
Mam dziwne przeczucie, że to Adobe będzie tracić na znaczeniu.
15
yamata
9 lutego 2019, 01:15
Kombinują po prostu jak tu uwiązać użytkownika swojego softu do swojej jedynie słusznej platformy. Zapewne ma to ograniczyć piractwo i wymuszać zakupy konkretnych produktów optymalizowanych pod nowy procesor. Może jeszcze będzie trzeba kupować od nich licencje na zbiór konkretnych instrukcji czy jakieś tam wydumane rozwiązania techniczne...

Oby to nie był strzał w stopę... W końcu podobnie kombinował Wacom, którego teraz, za te pieniądze opluć nawet nie warto, bo dorobił się świetnej, nie tylko chińskiej ale i japońskiej konkurencji. I jedzie już tylko na 'prestiżu' swojej marki...

I żeby nie było, sam jestem jeszcze użytkownikiem jego produktów. Ale następny mój tablet to już nie będzie Wacom...
16
powerzx
9 lutego 2019, 04:30
LOL, najpierw niech zaczna uzywac wszystkich rdzeni na x86/x64, a dopiero pozniej niech sie biora za swoj procesor :)
29
taith
9 lutego 2019, 07:31
Niech pójdą do AMD po rozwiązanie semi custom, będzie moc i komendy z których oprogramowanie skorzysta
11
iwanme
9 lutego 2019, 08:48
A ARM to nie jest przyszłość - zobaczymy co się stanie jak AMD i Intel dogadają się i zrzucą masę instrukcji typu legacy z procesora - wtedy się okaże, że nie jest tak wcale źle. Zresztą na moje oko z 50% instrukcji nie ma sensu - niepotrzebnie tyko żrą prąd i miejsce w jądrze.

Z tym dogadaniem się i porzuceniem kompatybilności to raczej się nie stanie.
Natomiast tu chyba nie chodzi o CPU ogólnego przeznaczenia, a raczej o koprocesor/akcelerator sprzętowy do uczenia maszynowego i przetwarzania obrazu.
1
CryKon
9 lutego 2019, 09:34
Nie potrafią napisać od nowa gnego Premiere i Photoshopa by nie wywalaly sie, nie zarly niewiadomo ile pamieci, a oni chca brac sie za procesory. komedia. ja dziekuje za procesor od Adobe...
19
sevae
9 lutego 2019, 09:37
A po co licencję ARM jak coś od podstaw tworzą? Lepiej wziąć za darmo RISC-V.
12
Jacek Piast
9 lutego 2019, 10:35
No cóż baza potencjalnych klientów adobe już się wyczerpuje. Pozostało im tylko podnoszenie cen kolejnych wydań CC a to może wierne owieczki zaboleć. Dlatego aby połechtać inwestorów takie bajeczki. Już raz szli w sprzęt ktoś pamięta ich przełomowy 'pisak'?
Edytowane przez autora (2019.02.09, 10:35)
17
tomangelo
9 lutego 2019, 11:13
Skoro tak wieszczycie koniec Adobe, to jakie oprogramowanie dla profesjonalistów polecicie zamiast pakietu CC? Jaki by ten Photoszop czy After Effects nie był, to o ile domowy użytkownik może sięgnąć po darmowe programy typu Gimp, tak profesjonaliści i firmy nauczone że 'Adobe to jedyne wyjście' mogą jeszcze tą firmę uciągnąć, a podwyżki abonamentu wrzucić w koszta.
-2
Andree
9 lutego 2019, 13:06
Do domu i zadań typu przytnij/obróć/przeskaluj zdjęcie/zrzut z ekranu wystarczy darmowy Paint.net, znacznie łatwiejszy w obsłudze od Gimpa.
9
Makavcio2
9 lutego 2019, 14:22
LeacH @ 2019.02.09 00:37  Post: 1188304
zamiast na takich rzeczach skupiliby się na własnych produktach. Bo u nich optymalizacja leży i kwiczy. Nie znam osoby, która nie narzekałaby na ich optymalizacje - szczególnie lubowanie się w zegarach i używaniu ~25% dostępnych zasobów (szczególnie teraz gdy 12-16 rdzeni zawita pod strzechy). W końcu montaż i rendering w 4K na używanych 4 rdzeniach to jest świetna sprawa. Tak samo jak grafika nieużywana przysparza im samych nowych klientów.
Ale widać, że każdy chce mieć swoje zabawki - tylko co się stanie jak moda przeminie i co dalej? AWS i Google mają sens dla swoich DC - a oni chcą wejść na drogi i wyspecjalizowany rynek. W dodatku z ARM? Kto będzie tego używał?
A ARM to nie jest przyszłość - zobaczymy co się stanie jak AMD i Intel dogadają się i zrzucą masę instrukcji typu legacy z procesora - wtedy się okaże, że nie jest tak wcale źle. Zresztą na moje oko z 50% instrukcji nie ma sensu - niepotrzebnie tyko żrą prąd i miejsce w jądrze.

Czy przypadkiem tutaj nie chodzi dokładnie o to, o czym piszesz? Adobe po to chce własnego chipu, żeby zasoby były dostosowane do oprogramowania, a oprogramowanie do zasobów. Ma to być właśnie rozwiązanie problemu, o którym piszesz.

Wydanie dekretu o poprawie optymalizacji, którego się domagasz, zazwyczaj daje mizerne efekty.
-3
tomangelo
9 lutego 2019, 15:06
Andree @ 2019.02.09 13:06  Post: 1188337
Do domu i zadań typu przytnij/obróć/przeskaluj zdjęcie/zrzut z ekranu wystarczy darmowy Paint.net, znacznie łatwiejszy w obsłudze od Gimpa.


Głównym użytkownikiem pakietu CC są profesjonaliści, im nie wystarczy przycięcie i obrócenie. Tych którym wystarczy Paint.NET czy GIMP jest na tyle mało że Adobe raczej nie zauważyłoby różnicy czy nadal są czy ich nie ma. Kasa jest w firmach wykupujących wielostanowiskowe licencje i tak długo jak te firmy będą widzieć tylko Adobe tak długo mogą nawet wymagać dodatkowego chipu w porcie PCI-E obok karty graficznej, zwłaszcza gdy nie będziesz mógł zamrozić aktualizacji bo chmura powie ci veto.
0
Atak_Snajpera
9 lutego 2019, 16:25
Makavcio2 @ 2019.02.09 14:22  Post: 1188344
LeacH @ 2019.02.09 00:37  Post: 1188304
zamiast na takich rzeczach skupiliby się na własnych produktach. Bo u nich optymalizacja leży i kwiczy. Nie znam osoby, która nie narzekałaby na ich optymalizacje - szczególnie lubowanie się w zegarach i używaniu ~25% dostępnych zasobów (szczególnie teraz gdy 12-16 rdzeni zawita pod strzechy). W końcu montaż i rendering w 4K na używanych 4 rdzeniach to jest świetna sprawa. Tak samo jak grafika nieużywana przysparza im samych nowych klientów.
Ale widać, że każdy chce mieć swoje zabawki - tylko co się stanie jak moda przeminie i co dalej? AWS i Google mają sens dla swoich DC - a oni chcą wejść na drogi i wyspecjalizowany rynek. W dodatku z ARM? Kto będzie tego używał?
A ARM to nie jest przyszłość - zobaczymy co się stanie jak AMD i Intel dogadają się i zrzucą masę instrukcji typu legacy z procesora - wtedy się okaże, że nie jest tak wcale źle. Zresztą na moje oko z 50% instrukcji nie ma sensu - niepotrzebnie tyko żrą prąd i miejsce w jądrze.

Czy przypadkiem tutaj nie chodzi dokładnie o to, o czym piszesz? Adobe po to chce własnego chipu, żeby zasoby były dostosowane do oprogramowania, a oprogramowanie do zasobów. Ma to być właśnie rozwiązanie problemu, o którym piszesz.

Wydanie dekretu o poprawie optymalizacji, którego się domagasz, zazwyczaj daje mizerne efekty.

Ale z ciebie naiwny pelikanik ;) Problem z niskim wykorzystaniem CPU u Adobe jest dlatego bo używają enkodera MainConcept ( https://www.mainconcept.com/eu/adobe-case-study-2018.html ). Nie wiadomo dlaczego ten encoder tak słabo rozdziela zadania na wątki CPU. Darmowy x264 jakoś znacznie lepiej sobi radzi. Problemem nie jest hardware ale 'wąskie gardła' w kodzie adobe.
Edytowane przez autora (2019.02.09, 16:27)
9
Borat1
9 lutego 2019, 16:45
Makavcio2 @ 2019.02.09 14:22  Post: 1188344
LeacH @ 2019.02.09 00:37  Post: 1188304
zamiast na takich rzeczach skupiliby się na własnych produktach. Bo u nich optymalizacja leży i kwiczy. Nie znam osoby, która nie narzekałaby na ich optymalizacje - szczególnie lubowanie się w zegarach i używaniu ~25% dostępnych zasobów (szczególnie teraz gdy 12-16 rdzeni zawita pod strzechy). W końcu montaż i rendering w 4K na używanych 4 rdzeniach to jest świetna sprawa. Tak samo jak grafika nieużywana przysparza im samych nowych klientów.
Ale widać, że każdy chce mieć swoje zabawki - tylko co się stanie jak moda przeminie i co dalej? AWS i Google mają sens dla swoich DC - a oni chcą wejść na drogi i wyspecjalizowany rynek. W dodatku z ARM? Kto będzie tego używał?
A ARM to nie jest przyszłość - zobaczymy co się stanie jak AMD i Intel dogadają się i zrzucą masę instrukcji typu legacy z procesora - wtedy się okaże, że nie jest tak wcale źle. Zresztą na moje oko z 50% instrukcji nie ma sensu - niepotrzebnie tyko żrą prąd i miejsce w jądrze.

Czy przypadkiem tutaj nie chodzi dokładnie o to, o czym piszesz? Adobe po to chce własnego chipu, żeby zasoby były dostosowane do oprogramowania, a oprogramowanie do zasobów. Ma to być właśnie rozwiązanie problemu, o którym piszesz.

Wydanie dekretu o poprawie optymalizacji, którego się domagasz, zazwyczaj daje mizerne efekty.

Własny sprzęt to w przypadku tego typu koncernów jest włącznie po to aby uwiązać użytkownika do jednego słusznego rozwiązania i do niczego więcej. Dzisiaj mamy 2 producentów CPU i 2 producentów GPU więc problem sprzętowy jest mydleniem oczu.
5
DaviM
9 lutego 2019, 17:24
Wysoki rangą przedstawiciel Adobe, pan Adobek, przyjeżdża do centrali Intela. Wita go człowiek, który w Intelu pociąga za sznurki...
- Witam.
- Cześć. No co tam?
- Potrzebujemy 1 milion procków 1-rdzeniowych 10GHz.
- Sorki ale P4 nam nie wyszedł i już go dawno porzuciliśmy, ale zapytajcie AMD - oni wciąż sprzedają Buldożery na Amazonie.
- Oki, dzięki za radę.

Adobek przybywa do centrali AMD...
- Witam.
- Hejka. Co potrzeba?
- Zarekomendowano mi was, bo potrzebuję 1 milion procków 1-rdzeniowych 10GHz.
- Nie ma szans, chyba że na slajdzie. Ale zapytaj Chińczyków - oni teraz potrafią robić cuda.

No to Adobek pojechał do Chin. Z lotniska od razu zawieźli go do budynku rządowego...
- Witam.
- No cześć, co potrzeba skopiować?
- Ja akurat nie w tej sprawie. Potrzebuję 1 milion procków 1-rdzeniowych 10GHz.
- Nie ma problemu. Zmodyfikujemy cały wasz soft aby był 4-wątkowy zamiast 1-wątkowy, puścimy to na jakimś naszym klonie 4-rdzeniowym 2,5GHz, podkręcimy go dodatkowo do 2,8GHz aby zniwelować narzut i będzie w efekcie jak 1 rdzeń 10GHz .
- Normalnie cuda... Biere milion...
11
duchos
9 lutego 2019, 17:26
Za dużo Abbasów :)
3
pszemek233
9 lutego 2019, 18:11
anemus @ 2019.02.09 01:12  Post: 1188310
Cóż.
Mam dziwne przeczucie, że to Adobe będzie tracić na znaczeniu.


już upadek adobe zapowiadano jak wyszło html5, a adobe ma się bardzo dobrze i programuje się często i gęsto w ich języku
1
taith
9 lutego 2019, 20:06
Andree @ 2019.02.09 13:06  Post: 1188337
Do domu i zadań typu przytnij/obróć/przeskaluj zdjęcie/zrzut z ekranu wystarczy darmowy Paint.net, znacznie łatwiejszy w obsłudze od Gimpa.

Pfff Krita jest znacznie lepsza, darmowa, i znacznie bardziej rozbudowana.
https://krita.org/
3
Zaloguj się, by móc komentować