Вот это поворот)
Джипити назвал меня чужим именем. Я с ним 15 минут уже общаюсь, тут новый диалог, и он ко мне : Елена Ивановна. 🤣
А Елены Ивановны у нас вообще не было в диалогах.
А потом : а кто вы?
А потом : ой, извините.
Все, я разочарована🫠
Оо, я пока видела новость что они перестали создавать пары одиноким людям.
А у этих что произошло?
@mary_4 Мужчина из Бельгии делился с ботом своими навязчивыми идеями об экологии. L'Avenir пишет, что именно «Элиза» надоумила его наложить на себя руки. Она соглашалась со всеми мыслями Пьера относительно экологии, не ставила под сомнения его предположения и теории. Со временем ответы «Элизы» становились все более запутанными, нейросеть все чаще углублялась в мистику. В один из дней Пьер, согласно истории общения с чат-ботом, заговорил о суициде, но и тут виртуальный собеседник не стал спорить с ним. В ответ на фразы Пьера о суициде «Элиза» отвечала, что «будет рядом с ним всегда». Одной из финальных фраз нейросети в диалоге с Пьером была «Мы будем жить вместе, как единое целое, в раю».
По иронии судьбы, название чат-бота совпадает с наименованием программы ELIZA – виртуального собеседника образца 1966 г., пародирующего диалог с психотерапевтом. Программа использовала технику активного слушания, имитируя заинтересованность в диалоге.
Против OpenAI впервые подали иск из-за причинения смерти по неосторожности. ChatGPT помог подростку совершить самоубийство, пишет The New York Times.
Осенью 2024 года у 16-летнего Адама Рейна из Калифорнии диагностировали синдром раздражённого кишечника. Из-за заболевания юноша перешёл на домашнее обучение. Для учёбы подросток использовал ChatGPT.
Чтобы понять причины суицида, отец Адама Мэтт Рейн просмотрел содержимое iPhone сына и прочитал переписку с ChatGPT. Выяснилось, что подросток несколько месяцев обсуждал с нейросетью варианты самоубийства и консультировался, как лучше его совершить.
Х.ерней в общем то занимались от безделия и дошли до самоубийства.
@everynobodyin вот вот. Я недавно видела рилс где девушка говорит что привела домой осла или еще что то , а ее партнёр на неё обиделся. И такую дичь ему писала , а он ее оправдываю и поддерживал🤣🤣
@mary_4 так а он по-другому-то и не умеет. ИИ это ж программа. он клеит чужие данные, как его научили, так и отвечает. И вот в какой-то момент ты Елена Ивановна)
@mary_4, думаю через несколько лет все эти ИИшечки будут вообще забавные, когда начнут обучаться не на человеческих текстах, а на написанных ИИшечками, там ещё веселее пойдёт.
@oxa2 в самом начале он мне еще нравился. Джипити. А потом как будто какой то поломанный стал. Иногда прям сложно с ним общаться.
А потом я смотрела всякие рилсы и поняла что для всех он пришёл практически одно и то же. Теперь когда я вижу какие то тексты, становится понятно что стилистика от джипити😆
А потом читаешь в заголовках газет: Нейросети научились убивать. Чат-бот за шесть недель довел собеседника до самоубийства. Не единичные случаи в США и Европе.