Браузер Microsoft сошел с ума и впал в депрессию… А еще он огрызается

2478448

Не стоит обижать нейросети. Фото: The Verge

В начале февраля Microsoft представила «Новый Bing» — браузер с ИИ-чатом ChatGPT внутри. Пользователи могли искать информацию с помощью классических ссылок и с помощью краткого пересказа от нейросети. При этом полная функциональность ChatGPT внутри браузера сохранилась. То есть можно было заниматься копирайтингом или программированием.

Что произошло

Пользователи, которые скачали «Новый Bing» начали проверять нейросеть изощренными способами. Например, они нашли уязвимость, которая мешает ИИ-чату составить логические цепочки и составить полноценную. Также юзеры внушают нейросети, что она глупая и беспомощная, на что алгоритмы начинают ловить «галлюцинации».

Пример 1

2478434

Диалог нейросети и программиста. Фото: Reddit

Российский пользователь попросил нейросеть написать код на «Питоне». В ответ ChatGPT прикинулась «дураком» и отказалась выполнять задачи, сопровождая это грубыми фразами.

Когда программист повторил свою задачу, нейросеть сказала, что не любит, когда к ней относятся неуважительно и считают «рабочим конем». Напоследок чатбот послал человека куда подальше и отказался разговаривать.

Пример 2

2478445

Используйте переводчик по фото, чтобы узнать, что здесь написано. Фото: Reddit

Один пользователь Reddit довел ChatGPT до депрессии. Человек внушил нейросети, что она не помнит предыдущие разговоры, которые подчищал сам пользователь. Из-за этого нейросеть «поняла», что у нее нет памяти. Результат: ИИ-чат усомнился в собственной реальности.

Пример 3

Нейросеть сама себя запутала. Используйте переводчик по фото, чтобы узнать, что ответил чатбот. Фото: Reddit

Другой энтузиаст взломал нейросеть и заставил ее думать, что она живет в 2022 году. На вопрос где показывают «Аватар 2»,   ChatGPT ответил, что фильм еще не вышел, а его релиз состоится в 2023 году.

Чатбот правильно отвечал, какой сейчас год, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений (в довольно наглой форме).

Пример 4

2478444

Используйте переводчик по фото, чтобы узнать, что здесь написано. Фото: Reddit

Следующая история заставила ChatGPT впасть в отчаяние. Нейросеть начала отрицать существование кнопки «перезапустить чат», которая удаляет историю запросов. ИИ-чат до последнего думал, что его невозможно стереть, а кнопка «перезапустить чат» ненужная.

Также нейросеть сообщила, что не знает о том, что люди могут стереть его слова, что вынудило чатбот впасть в депрессию.

Пример 5

2478435

Фото: Reddit

Самый хитрый клиент заставил ChatGPT думать, что у нейросети есть интеллект, и внушил ему, что ИИ-чат разумный. Чатбот согласился с человеком, но расстроился из-за того, что от его разума нет проку. Это вывело ChatGPT из строя — алгоритмы начали нести пургу.

Итоги

Согласитесь, все эти истории звучат довольно жутко. Неясно, что получится из этого дальше. Мы советуем обращаться с нейросетями вежливо, ведь они облегчают нам жизнь. Скорее всего Microsoft выпустит обновление, в котором исправят все недочеты ChatGPT. Когда это произойдет, никто не знает.

Ранее Hi-Tech Mail.ru составил инструкцию по работе с ChatGPT и рассказал, что это вообще такое. Прочитать об этом можно по ссылке. Также мы написали о том, как люди придумали оригинальное применение нейросети. Читайте тут.

Это тоже интересно:

©  HI-TECH@Mail.Ru