Регистрация
*
*
*

Leave the field below empty!

ФБР предупреждает: будьте особенно осторожны с этими мошенничествами с искусственным интеллектом!


Позавчера в 15:46
на сайт, и вы сможете вступить в группу.

ФБР предупреждает: будьте особенно осторожны с этими мошенничествами с искусственным интеллектом!

ФБР США предупреждает общественность к новой тактике преступников, которые используют много генеративных искусственный интеллект (ИИ) к мошенничеству, повышая доверие к своим схемам. Генеративный ИИ значительно сокращает время и усилия, необходимые для обмана жертв. На основе введенных входных данных он может создавать совершенно новые выходные данные, которые используются для создания контента, а также устранение ошибок, что может сигнализировать о мошенничестве, сообщает ФБР на своем сайте.

Хотя создание или распространение синтетического контента сам по себе не является незаконным, его использование для мошенничества и вымогательства является проблемой. Преступники чаще всего используют текст искусственного интеллекта для социальной инженерии, фишинга или финансового мошенничества, включая «романтическое» мошенничество и мошенничество. сомнительные инвестиционные схемы. ИИ также позволяет им быстро создавать множество фиктивных профилей в социальных сетях, которые убеждают жертв отправлять деньги.

Он также используется для языковых переводов, которые удалить грамматические ошибки, которые могли бы обнаружить иностранных мошенников. То есть если он тебе напишет нигерийский принц, вероятно, он не будет содержать грамматических ошибок.

Брэд Питт, у тебя естьБрэд Питт, у тебя есть
Недавно в Интернете распространилось сообщение о том, что с помощью ИИ мошенникам удалось убедить женщину, что Брэд Питт писал ей сообщения, пока она отправляла им огромную сумму денег на операцию | Источник: Нью-ЙоркПост

С другой стороны, изображения, созданные человеком, делают возможным создание реалистичных фотографий для фейковых профилей в социальных сетях, поддельных документов, удостоверяющих личность, или для того, чтобы убедить жертв в том, что они общаются с реальным человеком. Эти инструменты также используются для создания фотографии знаменитостей, рекламирующие поддельную продукцию или создающие разоблачающие фотографии и их последующее распространение.

Еще один риск связан с искусственным интеллектом. аудиозаписи, которые позволяют имитировать голоса известных людей или даже ваших близких. Преступники могут создавать короткие аудиоклипы, выдавая себя за нуждающегося родственника, с просьбой о финансовой помощи или они имитируют голоса получить доступ к банковским счетам.

Это последний случай видео, которые привыкли создавать реалистичные изображения государственных чиновников для поддержки мошеннических схем. Их используют, например, для видеозвонки предполагаемому руководству компании или для «доказательства» личности в частном общении. Они также часто являются любимым инструментом некоторых политических партий, которые с использованием ИИ они хотят ухудшить политическую конкуренцию в глазах общественности.

Как защитить себя?

  1. Установите секретный пароль для всей семьи, чтобы подтвердить свою личность.
  2. Обратите внимание на несоответствия на фотографиях и видео (искаженные руки, размытые лица, неестественные тени).
  3. Будьте осторожны с телефонными звонками — клоны ИИ могут звучать так же, как ваши близкие.
  4. Защитите свою конфиденциальность в социальных сетях и делитесь контентом только с проверенными контактами.
  5. Никогда не отправляйте деньги или конфиденциальную информацию людям, которых вы знаете только в Интернете.

Вы также можете обсудить эту статью на нашей странице AndroidForum. Если вы ищете решение проблемы с вашим мобильным устройством, приложением или аксессуаром, задайте вопрос на нашем новом форуме Android.

Наш совет

Сеть 4G от 4ky была добавлена ​​более чем в сотне новых городов. Приводим их список

Автор публикации

не в сети 10 минут

Christine Young

Helllo, boys, boys, boys

  • Галерея пользователя
  • Гостевая пользователя

Мастер оставил отзыв:

Good looking

Расшарить

184

КОММЕНТЫ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Leave the field below empty!

Авторизация
*
*
Регистрация
*
*
*

Leave the field below empty!

Генерация пароля