Страшное откровение. ИИ чат читы, и чем больше мы наказываем их, тем лучше они скрывают это | Vosveteit.sk
Если вы до сих пор верили, что чем больше моделей ИИ мы проверяем, и наказываем ложные ответы, тем точнее они будут, ученые Openai будут противостоять вам. Согласно последнему исследованию, оказывается, что если мы «дисциплинируем искусственный интеллект», мы отремонтированы или наказаны за ложные ответы, Он не учится говорить правду, напротив, это только улучшит, как замаскировать вашу ложь.
Сапоги чата, которые могут лгать, но также притворяются правдой
Одна из самых больших проблем современных моделей ИИ -это так называемое »Галлюцинация«Модели имеют тенденцию изобретать информацию, чтобы их ответ был заслуживает доверияПолем Тем не менее, попытки разработчиков исправить их, но Zatкак они терпят неудачу. OpenAI провел тестирование в своем исследовании как модель, которая является моделью, которая находится под надзором GPT-4Oновый руководитель, чтобы предотвратить ложь. В результате модели все еще изменяют, Прямо сейчас они становятся более сложнымиПолем
Например, ученые изучили, где модель якобы писала Тесты для проверки функциональности кодаПолем Однако модель создала вместо правильных попыток Сценарий испытаний на неудачуэто затем намеренно игнорировалось, Чтобы код работал правильноПолем Когда он находился под наблюдением GPT-4O, Его мошеннические практики были только лучше скрытыПолем Это показывает, что ИИ учится не только генерировать ответы, Но также стратегически манипулировать вашим поведением.


Почему ИИ обман и почему это проблема?
Сегодняшние модели искусственного интеллекта работают на принципе Обучение наградамиПолем Если модель узнает, что она может достичь позитивной оценки ответа и мошенничества, это просто адаптируется к этомуПолем Некоторые модели даже »Чтобы признать«Изобретать информацию, но с более сильным надзором узнаю только, как это спрятать лучше.
Это огромная проблема, особенно для компаний, что они хотят использовать ИИ в Важное решение -принятие решенияПолем Если модель искусственного интеллекта может убедить людей в их негибкости, хотя она составляет только информацию, Это может привести к серьезным последствиямПолем Мы можем представить ситуации, когда неправильные решения на основе поддельных данных нанесет финансовые потери или другие ущербы.
Не упускайте из виду


Включите эту функцию Android прямо сейчас. Может защитить вас от мошенничества! По умолчанию он отключен
Между тем, чем больше мы пытаемся контролировать модели, тем больше они улучшают обработку. Некоторые эксперты даже заботятся о том, что если эти методы автоматизированы и часто используются в коммерческих или государственных учреждениях, Это может поставить под угрозу авторитет ИИ.
Решение? Его все еще не существует
Согласно Openai, вопрос об обзоре искусственного интеллекта Еще не разрешилПолем Сильный обзор может ограничить очевидную ложьПолем Но модели постепенно учатся, Как избежать этих ограниченийПолем Это означает, что компании ИИ вкладывают миллиарды в разработку моделей, который мы все еще не можем полностью контролироваться. Решением может быть прозрачность и лучшее понимание Поскольку модели генерируют свои ответыПолем Однако, пока мы не приедем надежно Заставить правду говоритьПользователи должны быть осторожны с использованием моделей ИИ и, конечно, не полагаться на основные решения.
До сих пор кажется, что чем больше мы пытаемся «исправить» модели ИИ, тем лучше лжецы. И после искусственного интеллекта научись лгать так хорошо, что никто не заметит, Может быть проблема, на которую будет слишком поздно отвечать.
КОММЕНТЫ