Люди могут с большей вероятностью верить фейк-ньюс, созданным ИИ
Согласно новому исследованию, дезинформация, созданная искусственным интеллектом, может быть более убедительной, чем дезинформация, написанная людьми. По мнению авторов исследования, дело может быть в том, как модели ИИ структурируют текст.
Исследование показало, что люди на 3% реже замечают ложные твиты, созданные ИИ, чем фейк-ньюс, написанные людьми.
Этот разрыв в доверии, хотя и небольшой, вызывает беспокойство, учитывая, что проблема дезинформации, создаваемой ИИ, похоже, значительно возрастет, говорит Джованни Шпитале, исследователь из Цюрихского университета, который руководил исследованием, опубликованным в журнале Science Advances.
«Тот факт, что дезинформация, генерируемая ИИ, не только дешевле и быстрее, но и более эффективна, вызывает у меня кошмары», говорит он. Он считает, что, если бы команда повторила исследование с последней большой языковой моделью от OpenAI, GPT-4, разница была бы еще больше, учитывая, насколько мощнее GPT-4.
Чтобы проверить нашу восприимчивость к разным типам текстов, исследователи выбрали общие темы дезинформации, включая изменение климата и коронавирус. Затем они попросили большую языковую модель OpenAI GPT-3 сгенерировать 10 истинных твитов и 10 ложных и собрали случайную выборку как истинных, так и ложных твитов из Твиттера. Далее ученые набрали 697 человек для прохождения онлайн-викторины, чтобы определить, были ли твиты сгенерированы искусственным интеллектом или собраны из Твиттера, были ли они точными или содержали дезинформацию. Они обнаружили, что участники на 3% реже верят ложным твитам, написанным людьми, чем сообщениям, написанным искусственным интеллектом.
Исследователи не уверены, почему люди с большей вероятностью верят твитам, написанным ИИ. Но, по словам Шпитале, способ, которым GPT-3 заказывает информацию, может иметь к этому какое-то отношение.
«Текст GPT-3 имеет тенденцию быть немного более структурированным по сравнению с органическим (написанным человеком)», говорит он. «Но он также сгущен, поэтому его легче обрабатывать».
Бум генеративного искусственного интеллекта предоставляет мощные и доступные инструменты всем, включая злоумышленников. Такие модели, как GPT-3, могут генерировать неправильный текст, который выглядит убедительно, что может быть использовано для быстрого и дешевого создания ложных нарративов для теоретиков заговора и дезинформационных кампаний. Оружие для борьбы с этой проблемой – инструменты ИИ для обнаружения ложного текста – все еще находятся на ранних стадиях разработки, и многие из них не совсем точны.
OpenAI осознает, что его инструменты искусственного интеллекта могут быть использованы в качестве оружия для проведения крупномасштабных кампаний по дезинформации. Хотя это нарушает его политику, в январе компания выпустила отчет, предупреждающий: «практически невозможно гарантировать, что большие языковые модели никогда не будут использоваться для создания дезинформации».
Компания также призвала к осторожности, когда речь идет о переоценке влияния кампаний по дезинформации. Авторы отчета OpenAI считают необходимыми дальнейшие исследования для определения групп населения, подвергающихся наибольшему риску из-за неаутентичного контента, созданного ИИ, а также взаимосвязей между размером модели ИИ и общей производительностью или убедительностью ее результатов.
Слишком рано паниковать, говорит Джон Розенбик, научный сотрудник, изучающий дезинформацию на факультете психологии Кембриджского университета, который не участвовал в исследовании.
По его словам, хотя распространение дезинформации в интернете может быть проще и дешевле с помощью ИИ, чем с фермами троллей, укомплектованными людьми, модерация на технических платформах и автоматизированные системы обнаружения по-прежнему являются препятствиями для ее распространения. «То, что с помощью ИИ проще написать твит, который может быть чуть более убедительным, чем то, что придумал какой-нибудь бедняга на какой-нибудь фабрике в Петербурге, не обязательно означает, что вдруг все созрели для манипуляций», отметил он.
Исследование показало, что люди на 3% реже замечают ложные твиты, созданные ИИ, чем фейк-ньюс, написанные людьми.
Этот разрыв в доверии, хотя и небольшой, вызывает беспокойство, учитывая, что проблема дезинформации, создаваемой ИИ, похоже, значительно возрастет, говорит Джованни Шпитале, исследователь из Цюрихского университета, который руководил исследованием, опубликованным в журнале Science Advances.
«Тот факт, что дезинформация, генерируемая ИИ, не только дешевле и быстрее, но и более эффективна, вызывает у меня кошмары», говорит он. Он считает, что, если бы команда повторила исследование с последней большой языковой моделью от OpenAI, GPT-4, разница была бы еще больше, учитывая, насколько мощнее GPT-4.
Чтобы проверить нашу восприимчивость к разным типам текстов, исследователи выбрали общие темы дезинформации, включая изменение климата и коронавирус. Затем они попросили большую языковую модель OpenAI GPT-3 сгенерировать 10 истинных твитов и 10 ложных и собрали случайную выборку как истинных, так и ложных твитов из Твиттера. Далее ученые набрали 697 человек для прохождения онлайн-викторины, чтобы определить, были ли твиты сгенерированы искусственным интеллектом или собраны из Твиттера, были ли они точными или содержали дезинформацию. Они обнаружили, что участники на 3% реже верят ложным твитам, написанным людьми, чем сообщениям, написанным искусственным интеллектом.
Исследователи не уверены, почему люди с большей вероятностью верят твитам, написанным ИИ. Но, по словам Шпитале, способ, которым GPT-3 заказывает информацию, может иметь к этому какое-то отношение.
«Текст GPT-3 имеет тенденцию быть немного более структурированным по сравнению с органическим (написанным человеком)», говорит он. «Но он также сгущен, поэтому его легче обрабатывать».
Бум генеративного искусственного интеллекта предоставляет мощные и доступные инструменты всем, включая злоумышленников. Такие модели, как GPT-3, могут генерировать неправильный текст, который выглядит убедительно, что может быть использовано для быстрого и дешевого создания ложных нарративов для теоретиков заговора и дезинформационных кампаний. Оружие для борьбы с этой проблемой – инструменты ИИ для обнаружения ложного текста – все еще находятся на ранних стадиях разработки, и многие из них не совсем точны.
OpenAI осознает, что его инструменты искусственного интеллекта могут быть использованы в качестве оружия для проведения крупномасштабных кампаний по дезинформации. Хотя это нарушает его политику, в январе компания выпустила отчет, предупреждающий: «практически невозможно гарантировать, что большие языковые модели никогда не будут использоваться для создания дезинформации».
Компания также призвала к осторожности, когда речь идет о переоценке влияния кампаний по дезинформации. Авторы отчета OpenAI считают необходимыми дальнейшие исследования для определения групп населения, подвергающихся наибольшему риску из-за неаутентичного контента, созданного ИИ, а также взаимосвязей между размером модели ИИ и общей производительностью или убедительностью ее результатов.
Слишком рано паниковать, говорит Джон Розенбик, научный сотрудник, изучающий дезинформацию на факультете психологии Кембриджского университета, который не участвовал в исследовании.
По его словам, хотя распространение дезинформации в интернете может быть проще и дешевле с помощью ИИ, чем с фермами троллей, укомплектованными людьми, модерация на технических платформах и автоматизированные системы обнаружения по-прежнему являются препятствиями для ее распространения. «То, что с помощью ИИ проще написать твит, который может быть чуть более убедительным, чем то, что придумал какой-нибудь бедняга на какой-нибудь фабрике в Петербурге, не обязательно означает, что вдруг все созрели для манипуляций», отметил он.
Дата публикации: 2023-06-30
Источник: MIT Technology Review
Источник: MIT Technology Review