Следовало начать с отличий CPU и GPU в строении, а то так новость прочел, да и сидишь негодуешь, раз гпу такие мощные, что же сейчас их не используют вместо цпу. Действительно, ведь у gtx1080 2560 процессоров, а в топовых cpu "всего" ~12. И частоты у гпу выше. Непосвященные (коих на дтфе преобладающее большинство) не в теме.
Вот только закон мура все же умрет со временем - возможно,продержится еще лет 10, но он держится за счет уменьшения техпроцесса,но рано или поздно он дойдет до 1нм - сделать меньше атома уже не получится чисто физически,это все равно что быстрее чем со скоростью света двигаться (манипулировать частицами размером с отдельный атом просто не получится из за квантовой неопределенности)
Генеральный директор Nvidia Хуан Жэньсюнь (Jensen Huang)8) Дженсен Хуанг он. Дженсен это имя, и он американец, эмигрировал с Тайваня в детском возрасте.
А смысл в этом какой кроме уменьшения размеров устройств? К тому же уже давно те же интел идут со встроенной графикой с gpu и cpu на одном кристалле с единой ОЗУ, вот тебе и светлое будущее. А ежели нужны требовательные игры то добро пожаловать в стандартную компоновку с дискретной видеокартой. Шина материнки по скорости вполне покрывает необходимый обмен данными, а уж 30 сантиметров печатной платы от сpu до gpu, или 30 нанометров, роли не играет.
Никогда. В ближайшие годы нас ждёт прямо обратное: деинтеграция компонентов в систему-на-интерфейсе, потому как иначе обеспечить прирост производительности после исчерпания масштабирования техпроцессов никак не получится.
в итоге обе компании и дальше будут пилить баблишко, едва двигая прогресс
Комментарий недоступен
Хотел бы я жить в мире с более эффективной морковкой.
Следовало начать с отличий CPU и GPU в строении, а то так новость прочел, да и сидишь негодуешь, раз гпу такие мощные, что же сейчас их не используют вместо цпу. Действительно, ведь у gtx1080 2560 процессоров, а в топовых cpu "всего" ~12. И частоты у гпу выше. Непосвященные (коих на дтфе преобладающее большинство) не в теме.
А подробней?
GPU - перфоратор. CPU - набор ключей и отвёрток с 100500 сменных насадок.
Перевод рекламного буклета Tesla 100?
Вот только закон мура все же умрет со временем - возможно,продержится еще лет 10, но он держится за счет уменьшения техпроцесса,но рано или поздно он дойдет до 1нм - сделать меньше атома уже не получится чисто физически,это все равно что быстрее чем со скоростью света двигаться (манипулировать частицами размером с отдельный атом просто не получится из за квантовой неопределенности)
атом не 1нм размером, ученый...
манипулировать частицами размером с отдельный атом просто не получится из за квантовой неопределенности
Здравствуйте, привет. Уже и ролики на ютубе есть.
https://en.wikipedia.org/wiki/A_Boy_and_His_Atom
читал, что будут лепить в 2 этажа. Как именно пересказать не могу.
Генеральный директор Nvidia Хуан Жэньсюнь (Jensen Huang)8)
Дженсен Хуанг он. Дженсен это имя, и он американец, эмигрировал с Тайваня в детском возрасте.
https://ru.wikipedia.org/wiki/Хуан_Жэньсюнь
Возможно его в Америке и называют Дженсен, но "ng" это указание на носовую "н" и на русском "г" точно опускается.
А что ещё может написать компания, производящая GPU?
Лучшеб рассказали когда нас ждет светлое будущее в виде единого вычислительного юнита на единой плате с единой памятью...
А смысл в этом какой кроме уменьшения размеров устройств? К тому же уже давно те же интел идут со встроенной графикой с gpu и cpu на одном кристалле с единой ОЗУ, вот тебе и светлое будущее. А ежели нужны требовательные игры то добро пожаловать в стандартную компоновку с дискретной видеокартой. Шина материнки по скорости вполне покрывает необходимый обмен данными, а уж 30 сантиметров печатной платы от сpu до gpu, или 30 нанометров, роли не играет.
Никогда. В ближайшие годы нас ждёт прямо обратное: деинтеграция компонентов в систему-на-интерфейсе, потому как иначе обеспечить прирост производительности после исчерпания масштабирования техпроцессов никак не получится.
А разве в консолях сейчас не так? Там разве что память отдельными чипами (но тоже общая озу и видео)
Я в этом не специализируюсь, но инженеры как-то говорили об однокристальных системах. Это разве не оно?
В заголовке так, будто gpu заменяют cpu во всем, а в новости про узкие направления.
Чет они там курнули в nvidia, не вижу даже смысла комментировать этот бред..
Не вижу смысла комментировать - комментирую.
@Евгений Решетняк
Ну вот, 2 дурочка уже нашлись, которые тоже не понимают разницы между CPU и GPU
Технологии не нужны, давайте играть в камни!
Влажные мечты Хуана
большую часть транзисторов в CPU - это кэш память.