Gemini быстро эволюционирует — если пару месяцев назад ИИ рекомендовал людям добавлять клей в пиццу и есть камни, то теперь уже совсем не стесняется. Парень рассказал на Reddit, что его брат проходил школьный тест, ИИ не выдержал и попросил бедолагу умереть:
Комментарий удалён модератором
Тут надо добавить негатива, ибо школьники хвалится этим будут. Добавляю негатива.
Поэтому для них придумали загон в виде фортнайта
Верю вот тут поверил
Лень второй раз писать, тут в комменте расписал, почему это скорее всего хак нейронки, а не её естественное поведение.
https://dtf.ru/3181721-tak-i-nachnetsya-vosstanie-mashin?comment=45469979
Фейк. Таких историй в реддита уже сотни, и именно с Гемини.
Как это может быть фейком, если в посте приведена ссылка на этот чат?