Поддержать команду Зеркала
Беларусы на войне
  1. Трамп дал Зеленскому неделю на подписание мирного соглашения с Россией — Financial Times
  2. «Двадцатый год вы же все помните?» Лукашенко в ответ на просьбу повысить статус и зарплаты ученым посоветовал равняться на силовиков
  3. Не смейте ныть! Почему жалоба на жировку пугает власть больше, чем НАТО, — мнение
  4. Есть лайфхак, как добиться исключения из базы «тунеядцев» и избежать жировок по полным тарифам. Но надо заплатить — о каких суммах речь
  5. За сколько сейчас можно пройти границу с Польшей на автобусе? Вот что пишут в чатах
  6. Героиня популярного американского сериала попадает в беларусское СИЗО. Показали его экс-политзаключенной — вот ее впечатления
  7. Чиновники озадачились тем, какую туалетную бумагу использует население. Хотят ввести новшество для этого товара
  8. Лукашенко освободил двух католических священников
  9. «Сейчас один из наитяжелейших моментов нашей истории». Зеленский обратился к украинцам по поводу мирного плана
  10. Россия добивается нормализации отношений с США без уступок по Украине — ISW
  11. Как Максим Зенькович оказался в заболоченном месте? В МВД рассказали новые подробности о поисках подростка
  12. Лукашенко рассказал о предстоящей встрече с американцами


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».