Как долго искусственный интеллект сможет «копировать» вас? От ответа у вас по спине пробежит озноб | #
Искусственный интеллект быстро развивается и уже влияет на многие области, и, по мнению многих экспертов, в будущем он будет играть еще более важную роль.
Однако сегодня мы уже можем увидеть концепцию «аватаров» ИИ, которая одних увлекает, а других раздражает. цифровая модель конкретного человека. Наиболее известны компании, которые на основе фотографий, видео, аудиозаписей или сообщений возвращают умершего к жизни и дают семье возможность попрощаться с близким человеком.
Но сколько времени понадобится искусственному интеллекту, чтобы создать точную цифровую копию вашей личности? Как сообщает портал Live Science, он тревожно низок. Согласно новому исследованию ученых из Google и Стэнфордского университета, искусственный интеллект может создать вашу копию всего за два часа.
«Достаточно ли двухчасового разговора с искусственным интеллектом, чтобы модель ИИ создала точную копию чьей-то личности?» пишут учёные.
Действительно маловато
В ходе эксперимента они использовали модель искусственного интеллекта для создания копий личностей более тысячи добровольцев. просто на основе двухчасового разговора с конкретным человеком. Чтобы проверить точность модели личности ИИ, помимо интервью с ИИ, волонтер прошел два раунда личностных тестов, социальные опросы и логические игры. Следующие раунды волонтер прошел через две недели.
Позже такие же испытания прошла и личность ИИ. Здесь было показано, что она способна воспроизвести имитируемую личность с точностью 85%. Авторы исследования полагают, что ИИ-модели реальных человеческих личностей могут помочь в различных исследованиях. Например, эксперты могли бы проверить эффективность различных санитарных норм. Компании могут увидеть, как общественность отреагирует на их новый продукт. В то же время, используя модель ИИ, ученые могли бы исследовать аспекты, которые являются этически проблематичными для людей-добровольцев.
Не упускайте из виду
Знаете ли вы, сколько вы платите за электроприборы, когда вы ими не пользуетесь и они находятся в режиме ожидания? Вы можете сэкономить столько денег каждый год!
Чтобы создать модель личности с использованием искусственного интеллекта, исследователи провели интервью с добровольцем. В ходе него спрашивали об историях жизни, мнениях и ценностях по поводу социальных проблем.. Искусственный интеллект отслеживал и улавливал нюансы, которые обычные анкеты могут упустить. Затем на основе интервью исследователи обучили генеративный искусственный интеллект имитировать личность добровольца. Модель ИИ смогла с предельной точностью предсказать, как человек ответит на вопросы.
Авторы исследования говорят, что, хотя искусственный интеллект в целом был способен точно копировать личность человека, в некоторых вещах он справлялся лучше, чем в других. Например, модель ИИ оказалась особенно точной на личностных тестах. Он был менее способен имитировать личность в различных интерактивных играх. По сути, ИИ по-прежнему отстает в задачах, связанных с социальной динамикой или различными контекстами.
«В нашей работе мы также отмечаем, что этот клон личности может быть использован киберпреступниками. Уже сегодня злоумышленники используют возможности искусственного интеллекта и технологии дипфейков для совершения мошенничества, например, выдавая себя за известного человека или члена семьи. Благодаря этому , они подготовили мошенничество, которое может обмануть даже опытных пользователей. Если к этому добавить симуляцию личности, у хакеров появится больше инструментов для злоупотреблений этими технологиями», — говорят исследователи.
Полезная технология или угроза?
С другой стороны, эта технология также может помочь нам. Исследователи говорят, что благодаря ИИ-личностям мы можем таким образом проводить исследования человеческого поведения что до сих пор было непрактично или имело этические последствия. В то же время мы могли бы таким образом избежать проблем, которые естественным образом могут возникнуть в результате межличностного сотрудничества.
«Представьте, что у вас есть несколько копий «вас», бегающих по всему миру и принимающих решения так, как вы их действительно приняли бы. Я думаю, что эта технология действительно представляет будущее», — говорит руководитель исследования Джун Сон Пак.
Остается вопрос, смогут ли исследователи повысить точность личности ИИ. 85% — это много, но еще есть место для плохого решения, которое, согласно закону Мерфи, придет в самый неподходящий момент. Но если бы у нас был 100% надежный клон ИИ, мы могли бы отправить его в город, в банк, в офис и т. д. у нас была бы гарантия, что наш аватар не сделает ничего, чего бы мы не сделали сами.
КОММЕНТЫ