Gravitas

+70
с 2021
0 подписчиков
36 подписок

Это отсылка на Linus Tech Tips, они реально на неделю остановили производство контента и там были ещё обвинения со стороны их сотрудницы бывшей.

Если интересно
https://youtu.be/0cTpTMl8kFY

Ответить

Потому что больше, наверное))
Больше знаний
В целом, чтобы модель не уходила в галлюцинации, нужно чтобы она что-то знала по тематике

Ответить

Это языковая модель, а не поисковик. Этот эффект вранья сами разработчики называют галлюцинациями. Модель к ним склонна, но она устроена так, что пишет текст, а не ищет где-то что-то.
GPT-4 уже меньше уходит в галлюцинации, кстати

1
Ответить

GPT-4 уже сильно менее склонен к галлюцинациям. Не оставит без работы, но не по причине того, что он глуп, а потому, что это будет ещё одним инструментом.

Ответить

На данный момент все эти сети это лишь помощник, он может помочь написать очень хороший код, но нужно пользователю уметь понимать его, в идеале. Для того, чтобы эффективно использовать нейронки нужно знать просто их ограничения.

Ответить

Да с того, что людей и даже компаний, способных с нуля что-то обучить, не так уж и много. И там выше тема другая, не про беспокойство за разработчиков и не про беспокойство за артистов.

Ответить

Ещё раз почитай. Из нейронок никто никого исключать не будет, это технически невозможно. Люди могут убрать себя из датасета LAION, на котором обучали они все. В SD 1.5, может и 2.1 все останутся, в будущих сетях, которые на новом датасете будут обучаться, не будет этих авторов только. Из датасета что угодно убрать можно, но это не изменит ничего в текущих реализациях.

Ответить

Угу, но пока что всё равно мы не на том этапе, когда это будет легко запускаться и работать очень хорошо. Тому же ChatGPT нужно примерно терабайт видеопамяти для работы, например, плюс его можно легко увести прочь от темы основной. Ну и есть цензурирование каких-то тем, хотя оно останется наверное.
Плюс тот же novelai это ассистент же

Ответить

Снежана, ну хоть расскажи, почему все заминусовала))

Ответить

Нет, доступа к инету нет к моделей этих. Плюс модели не рекомбинируют изображения. В случае SD она из шума случайного удаляет что-то, пока не получится результат близкий к промпту.
Там нет базы, датасет весил 600 Тб, модель весит 4 Гб. Модель это структура, веса и параметры. Это не система которая может куда-то полезть и по алгоритму что-то делать.

Не обучали диффузионные модели на порно просто. Что сейчас делают это SD, дообученный на снимках только. Это не полноценная модель, способная на такое. Unstable Diffusion хотят обучить на фотках без цензуры, посмотрим, что они сделают.
На полное обучение с нуля нужно много ресурсов, обучение SD по тарифам AWS стоило порядка 600000 долларов.

2
Ответить

Можно убрать имя из датасета просто и не будет промпт ничего выдавать по нему.

1
Ответить

Проблема, что модель сама не контролируется, контролировать может система только.

1
Ответить

Да так не получится, как вот ты узнаешь где стиль кого-то конкретного. Плюс стиль вроде как не копирайтится.

Вообще это будет похоже на попытку удалить что-то из интернета.

2
Ответить

Плюс тут опять таки, нет уверенности, что это незаконно, на самом деле.

1
Ответить

В мире открытых моделей с этим ничего не сделать. Они же брали чекпоинт SD и обучали его. В принципе то же самое мы делаем, когда обучаем модель на своем лице и генерируем аватарки.

Ответить

Можно поступить очень неочевидным способом. Способ изящен и страшен. Секрет в том что можно убрать все имена в датасете.

Я боюсь что так и будут делать просто в будущем. Никто не узнает все равно.

1
Ответить

Никто даже не узнает, что в обучении юзается, если не сказать)
Даже те, кто обучать будут, могут не узнать, никто 600 Тб не будет смотреть

1
Ответить

Законность этого интересна, потому что модель не попадает под авторское право по идее.

2
Ответить

Потому что у OpenAI система, где используется их модель GPT-3 (ну 3.5). Фильтрует все система, которая ее запускает, а не модель. Если бы OpenAI вытащили модель в открытый доступ, то уже много чего бы случилось, она не ограничена сама по себе ничем.
SD открытая, поэтому никто не может ограничить ее.

Всякие Adobe могут сделать свой закрытый датасет (на файлах пользователей) и закрытую модель, и хоть ты тресни, ничего никто не узнает и не сделает.

1
Ответить

А кому тогда компенсацию платить? По хорошему можно даже не знать, что чьи то работы в датасете были, если его не открывать. А корпорации могут этого и не делать. Всякие Adobe обучат на своем Behance и своем облаке, где люди хранят файлы, нейронки и что ты сделаешь теперь. Тем более у них наверняка в пользовательском соглашении есть пункт о том что они использовать могут работы

4
Ответить

Да и как ты определишь, какой кусок работы где использовался? Это невозможно, так как это не происходит. SD не рекомбинирует чужие работы, это не так происходит.

3
Ответить

Как ты к модели прикрутишь функционал. Это модель, а не система с закрытым кодом. Даже не подпишешь ее работы, на самом деле, как ни крути, хоть обсуждается все это. Потому что это, опять таки, модель, архитектура, а не система.

Закроешь законом, окей, а как докажешь, что в датасете была чья то там работа?

2
Ответить

Я не знаю американское авторское право хорошо, но шансы, что ничего не получится с этим судом, тоже велики. Скорее всего помурыжат друг друга какое то время, что-то решат между собой и все. Судятся те, кто хочет деньги заработать, а на авторов всем наплевать.

Ничего плохого от генеративных моделей авторам не будет. Это будет инструмент ещё один для создания артов просто, а не замена художникам.

9
Ответить

Ага, видел аргумент про это, но в реальности все сложнее. Если на artstation и deviantart вбить afgan girl, то работ, близких к фотографии, будет ого-го сколько, просто попробуйте. Очень и очень много, разных стилей и по разному близких к оригиналу.
При этом то, что мне SD выдала в своих генерациях, намного сильнее отличается от всего этого.
SD не повторяет ту фотку, совсем. Если генерирует близкое то только потому, что в датасете очень много одинаковых изображений из-за культурной значимости, вот и баес на арт этот конкретный. Дело вообще не в фото.

27
Ответить

Ну и в будущем нейронки будут как инструмент использоваться художников, да и в каких нибудь играх генерировать текстуры или картинки. Ну классно было бы поиграть в что-то вроде DnD на компе, где история от GPT, а арт от SD.

2
Ответить

Искусство не умрет, на самом деле, после того, как все уляжется, нейронки останутся как инструмент художника ещё один. Может ещё будут генерировать арт на лету в играх каких-нибудь. Представь такой DnD условный, где историю делают GPT модели, а арт диффузионные.

2
Ответить

От генеративных нейронок уже никуда не деться, вот хоть тресни

1
Ответить

Нифига себе 600 Тб датасета сжать в 4 Гб модели. Stable Diffusion не хранит картинки. Если так легко 1к1 вернуть картинку, то можно пример? Что такое стиль и как его вообще можно копирайтить?

20
Ответить