GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато

В этой статье мы разберем новые удивительные способности последней языковой модели из семейства GPT (от понимания мемов до программирования), немного покопаемся у нее под капотом, а также попробуем понять – насколько близко искусственный интеллект подошел к черте его безопасного применения?

Грег Брокман пытался убедить зрителей <a href="https://api.dtf.ru/v2.8/redirect?to=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DoutcGtbnMuQ&postId=1696445" rel="nofollow noreferrer noopener" target="_blank">лайв-стрима</a> с презентацией GPT-4, что новая модель нейросети – это в первую очередь круто, а не страшно
1.1K

Я написал много посредственного и простого кода с помощью Copilot и других моделей за последние 3 месяца (всякие тесты и скрипты). Большая часть времени, которое я провожу как инженер, это проектирование, тестирование/отладка, использование моего кода. Возможно конечно у всех разные ситуации, но когда вы быстро пишете код (хотя бы 50 слов в минуту), ждать и потом проверять результат работы copilot'а не так уж и удобно.

Что касается "смерти искусства". Почему это полная чушь? Я понимаю, что вы можете быть немного предвзяты (нужно ведь кому-то писать громкие статьи, а кому то получать новые раунды инвестиций), и, вероятно, я не скажу здесь ничего нового - единственная причина, по которой эти модели работают, заключается в том, что кто-то разместил ответ на art-station или stack overflow/github, и мрдель научилась воспроизводить примерный среднестатистический ответ. Поэтому, когда люди говорят подобные вещи, они либо не знают о чем говорят, либо вас хотят наебать. Как распознавание образов может стать "смертью искусства"? Буквально все, что оно делает, - это размещаяет слова или пиксели в наиболее вероятном порядке. Если вы проходили цепочки Маркова на уроках статистики, то это по сути очень сложная цепь Маркова на стероидах.

Я считаю что если вы серьезно занимаетесь программированием, графикой или там написанием текстов то верить что вас заменит какой-то gpt или другой ai на основе языковой модели это полный бред.

Сразу наперед поясню для тех кто не знаком с тем как работает нейронная сеть и слишком буквально читает мой комментарий про то что нейронная сеть содержит "ответ из art-station или stack overflow/github". В НН очень условно говоря хранятся картинки и текст разложенные на базисные вектора с нужными коэфициэнтами в специальном пространнстве. Так что да, в каком то смысле НН сожержит весь тренировочный набор в сжатом виде.

Ощущение что это комментарий написала нейронка.