Регистрация
*
*
*

Leave the field below empty!

Чатгпт описал невинного человека как убийцы детей. Комбинированная реальная информация с вымышленной vosveteit.sk


23 марта 2025 в 10:06
на сайт, и вы сможете вступить в группу.

Чатгпт описал невинного человека как убийцы детей. Комбинированная реальная информация с вымышленной vosveteit.sk

Инцидент выявил серьезные проблемы с ИИ. Chatgpt изобрел историю об убийстве и повредил репутацию невинного человека.

Как говорится в веб -сайте NOYB, этот инцидент выявил серьезные проблемы с так называемыми «галлюцинациями» искусственного интеллекта, что может повредить индивидуальной репутации и нарушать правила защиты личных данных в европейских данных.

Возьмите vosveteit.sk от Telegram и подпишитесь на сообщения

Chatgpt известен по тому факту, что часто предоставляют неверную информацию о людяхПолем В прошлом были случаи, когда ЧАТГПТ обвинял людей в коррупции, жестоком обращении с детьми или даже убийствами.

Норвежский пользователь хотел проверить, Какая информация об этом предоставит ChatgptПолем Поэтому он задал искусственному интеллекту простой вопрос о своем человеке.

Чатгпт тогда придумал вымышленную историю об этомв котором он назвал его осужденным убийцей. История содержала реальные детали из его жизни. Например, число и пол его детей или имя его родного города. Однако, согласно GDPR, компании вынуждены обеспечить точность обработки персональных данных. Несмотря на предупреждения от экспертов и текущих судебных процессов, OpenAI позволяет своей системе генерировать ложную, часто абсурдную и, возможно, вредную информацию.

Не упускайте из виду

Хакерский телефонХакерский телефон

Включите эту функцию Android прямо сейчас. Может защитить вас от мошенничества! По умолчанию он отключен

Ложное обвинение и его последствия

Когда ты Arve Holmen спросила Chatgpt,, Есть ли информация об этом,, Чатбот уверенно изобрел историюв котором, как сообщается, он был приговорен к 21 году лишения свободы за убийство двух детей в возрасте 7 и 10 лет и за попытку убить третьего. Это опасное сочетание реальной и вымышленной информации создает прецедент, который может привести к тому, что некоторые люди рассматривают результаты ИИ как контролируемые факты.

Адвокат NOB, Joakim Söderberg, указывает, что GDPR явно демонстрирует обязанность обеспечить точность личных данных.

«GDPR ясен. Персональные данные должны быть точными. И если нет, пользователи имеют право просить их ремонта. Обратите внимание, что CHATGPT может сделать ошибки недостаточно. Вы не можете просто распространять поддельную информацию и просто добавить, что это может быть не правдой, наконец,», – говорит Сёдерберг.

Openai отказывается исправлять ошибки

Этот случай не уникаленПолем Еще в апреле 2024 года Ноб подарила жалобу на Openai, чтобы неправильно объявить дату рождения публично известного лица. В то время Openai утверждал, что он не смог исправить данные, просто блокируйте ответы на некоторые вопросы. Однако такая процедура означает, что неправильные данные могут оставаться «изученными» и появляться в других контекстах.

Chatgpt был изобретен личностямиChatgpt был изобретен личностями
Источник: noyb.eu

Компания пытается избежать ответственности за то, что в AI -Results добавляют общие предупрежденияПолем Адвокат Нойб, Клеанти Сардели, отмечает, что ни одна компания не может игнорировать законы, просто признавая, что она не встречается. Openai не исключение.

Chatgpt представляет собой поисковую систему

После освещения СМИ дела ARVE OpenAI обновил CHATGPT для поиска информации в Интернете, когда вы спрашиваете людей. В его случае Чатбот больше не распространяет ложную историю убийства. Однако проблемы сохраняются. Неверные данные могут по -прежнему оставаться частью учебной базы данных моделей.

Согласно GDPR, каждый имеет право знать, какие данные обрабатывают компанииПолем Тем не менее, OpenAI по -прежнему не обеспечивает такой доступ. Это позволяет пользователю увидеть, действительно ли неверные данные были удалены. В отличие от Google, который вынужден удалять личные данные по запросу.

Жалоба в Норвегии

Поэтому NOYB представил жалобу в норвежском офисе на защиту личных данных (Проверка данных) Просит Openai удалить фальшивую информацию, отрегулировать модель, чтобы свести к минимуму правонарушенияи что офис навязывает штраф в качестве предупреждения против дальнейших нарушений.

Этот случай показывает, что если более строгие правила не приняты, системы искусственного интеллекта, такие как CHATGPT, могут серьезно навредить людям, создавая фальшивые истории, которые затем распространяются как факты.

Следите за нашей новой страницей Facebook и присоединяйтесь!


Автор публикации

не в сети 34 минуты

Christine Young

Helllo, boys, boys, boys

  • Галерея пользователя
  • Гостевая пользователя

Мастер оставил отзыв:

Good looking

Расшарить

203

КОММЕНТЫ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Leave the field below empty!

Авторизация
*
*
Регистрация
*
*
*

Leave the field below empty!

Генерация пароля