Может мне, кто-то объяснить по ИИ в процессорах и видеокартах.

Что-то я перестал сейчас понимаю новые технологии у процессоров (по крайне мере новых процессоров Intel) и видеокарт, что они улучшают работу с ИИ. И мол нам вдупляют рекламу, что пользователи активно ими пользуются на своих личных компьютерах. Может они и используется в видеомонтаже, но есть и другие сферы работ, и мне не кажется, что там прям много пользователей ИИ.

Может, кто-то разъяснит мне о этой внедрения ИИ в процессоры и видеопроцессоры для современных пользователях и не проще создавать отдельную линейку, чтобы было дешевле для обычных игроков допустим, как у X3D AMD?

14 комментариев

Это называется прикормка. Тебе навязывают эти нахуй не нужные NPU потихоньку привязывая(возможно даже насильно) к каким либо сервисам, а потом уже насадившись на крючек ты будешь за бОльшие деньги покупать отдельные железки. Чувствую я что в недалеком будущем к видеокартам придется докупать отдельные AI карты для DLSS/FSR и фреймгенам.

2

Ага, ещё PhysX это был развод, и глаз больше 24 кадров не видит))
Прикормка это жёлтые ценники, а прогресс будет прогрессом как бы ты от этого не вилял.

У винды встроен ИИ для работы с файлами и системой и кучей приколюх, но недоступен в РФ.
Вроде так.

1

«отдельную линейку, чтобы было дешевле для обычных игроков»
И на этом моменте можно понять, что загоняться по всему этому не стоит. Дешевле никто не сделает, а пропихивать будут.
Гиммик есть гиммик, его нужно продать. Кому нужно — ок, полезно, ускоряет работу с ИИ, но большинство будет отдавать за это деньги, потому что выбора не будет.

1

По моему ИИ занимаются только на видюхах от зелёных, амд и интел особо не участвуют в этом празднике

Не, спустя 3 поколения амд наконец что-то догнали, так что теперь "ни нужно" пропадёт из повестки

Ну тебя уже прогрели как Ноя на отдельные карты для обработки графики и звука.
С физикой не прокатило.
Вот теперь думают прогреть на NPU.

Формально все по честному - это чипы со специальной архитектурой, хорошие число-дробилки, которые хорошо работают с определенными видами нейросетей.
Есть устройства, где это оправдано, например какой нибудь умной видеокамере с функциями распознавания лиц будет дешевле поставить слабый процессор и npu, чем мощный процессор, который это потянет.

Нахера это юзерам в потребительских устройствах - вопрос. Сейчас в основном для фильтров снэпчат видимо.
Но формально разработчики софта могут юзать.

Возможно это больше не для тебя, а для корпораций, потому что гонять сети в облаках дорого. Облака нужны чтобы шпионить, а дорогие операции может и пользователь оплатить