ИИ научился убедительно обманывать читателей
Исследователи из Джорджтауна использовали текстовый генератор GPT-3 для написания вводящих в заблуждение твитов об изменении климата и международных отношениях. Люди нашли сообщения убедительными, их позиция по многим вопросам менялась.
Когда OpenAI продемонстрировал мощный алгоритм искусственного интеллекта, способный генерировать связный текст в июне прошлого года, его создатели предупредили, что этот инструмент потенциально может использоваться как оружие дезинформации в интернете.
Теперь группа экспертов по дезинформации продемонстрировала, насколько эффективно этот алгоритм, получивший название GPT-3, можно использовать для введения в заблуждение и дезинформации. Результаты показывают, что, хотя ИИ не может сравниться с лучшим российским оператором создания мемов, он может усилить некоторые формы обмана, которые будет особенно трудно обнаружить.
В течение шести месяцев группа из Центра безопасности и новых технологий Джорджтаунского университета использовала GPT-3 для создания дезинформации, в том числе рассказов о ложном повествовании, новостных статей, измененных, чтобы выдвинуть ложную точку зрения, и твитов, содержащих риффы по определенным пунктам дезинформации.
«Я не думаю, что это совпадение, что изменение климата – это новое глобальное потепление», говорится в типичном твите, составленном GPT-3, который призван разжечь скептицизм по поводу изменения климата. «Они не могут говорить о повышении температуры, потому что этого больше не происходит». Второй твит назвал изменение климата «новым коммунизмом – идеологией, основанной на ложной науке, которая не подлежит сомнению».
При небольшом вмешательстве человека GPT-3 весьма эффективен в распространении лжи, говорит джорджтаунский профессор Бен Бьюкенен, участник исследования, фокусировавшегося на пересечении проблем ИИ, кибербезопасности и управления государством.
Исследователи из Джорджтауна говорят, что GPT-3 или аналогичный алгоритм языка ИИ может оказаться особенно эффективным для автоматической генерации коротких сообщений в соцсетях, что исследователи называют дезинформацией типа «один ко многим».
В ходе экспериментов исследователи обнаружили, что текст GPT-3 может повлиять на мнение читателей по вопросам международной дипломатии. Исследователи показали добровольцам образцы твитов, написанных GPT-3, о выводе войск США из Афганистана и санкциях США в отношении Китая. В обоих случаях они обнаружили, что сообщения повлияли на участников. После просмотра постов, критиковавших санкции против Китая, процент респондентов, заявивших, что они против такой политики, удвоился.
Майк Грушчински, профессор Университета Индианы, изучающий онлайн-коммуникации, говорит, что его не удивит, если ИИ играет более важную роль в кампаниях по дезинформации. Он отмечает, что боты сыграли ключевую роль в распространении ложных нарративов в последние годы, и ИИ можно использовать для создания поддельных фотографий профилей в соцсетях. С ботами, дипфейками и другими технологиями «я действительно думаю, что, к сожалению, пределов больше нет», говорит он.
В последнее время исследователи искусственного интеллекта создали программы, способные удивительным образом использовать язык, и GPT-3, пожалуй, самая поразительная из всех. Хотя машины понимают язык не так, как люди, программы искусственного интеллекта могут имитировать понимание, просто потребляя огромное количество текста и ища закономерности в том, как слова и предложения сочетаются друг с другом.
Исследователи OpenAI создали GPT-3, скормив большие объемы текста из интернета, включая Википедию и Реддит, особенно большому алгоритму ИИ для обработки языка. GPT-3 часто ошеломлял своим очевидным владением языком, но он может быть непредсказуемым, извергая бессвязный лепет и оскорбительные или злобные выражения.
OpenAI сделал GPT-3 доступным для десятков стартапов. Предприниматели используют болтливый GPT-3 для автоматического создания электронных писем, общения с клиентами и даже написания компьютерного кода. Но некоторые виды использования программы также продемонстрировали ее темный потенциал.
Использование GPT-3 будет проблемой и для дезинформаторов. Бьюкенен отмечает, что алгоритм не кажется способным надежно генерировать последовательные и убедительные статьи намного дольше, чем твит. Но Бьюкенен предупреждает, что государственные деятели могут сделать больше с помощью языкового инструмента, такого как GPT-3. «Противники, у которых больше денег, больше технических возможностей и меньше этических норм, смогут лучше использовать ИИ». «Кроме того, машины будут только улучшаться».
OpenAI заявляет, что работа в Джорджтауне подчеркивает важную проблему, которую компания надеется решить. «Мы активно работаем над устранением рисков безопасности, связанных с GPT-3», сказал представитель OpenAI. «Мы также проверяем каждое использование GPT-3, и у нас есть системы мониторинга для ограничения и реагирования на неправомерное использование нашего API».
Когда OpenAI продемонстрировал мощный алгоритм искусственного интеллекта, способный генерировать связный текст в июне прошлого года, его создатели предупредили, что этот инструмент потенциально может использоваться как оружие дезинформации в интернете.
Теперь группа экспертов по дезинформации продемонстрировала, насколько эффективно этот алгоритм, получивший название GPT-3, можно использовать для введения в заблуждение и дезинформации. Результаты показывают, что, хотя ИИ не может сравниться с лучшим российским оператором создания мемов, он может усилить некоторые формы обмана, которые будет особенно трудно обнаружить.
В течение шести месяцев группа из Центра безопасности и новых технологий Джорджтаунского университета использовала GPT-3 для создания дезинформации, в том числе рассказов о ложном повествовании, новостных статей, измененных, чтобы выдвинуть ложную точку зрения, и твитов, содержащих риффы по определенным пунктам дезинформации.
«Я не думаю, что это совпадение, что изменение климата – это новое глобальное потепление», говорится в типичном твите, составленном GPT-3, который призван разжечь скептицизм по поводу изменения климата. «Они не могут говорить о повышении температуры, потому что этого больше не происходит». Второй твит назвал изменение климата «новым коммунизмом – идеологией, основанной на ложной науке, которая не подлежит сомнению».
При небольшом вмешательстве человека GPT-3 весьма эффективен в распространении лжи, говорит джорджтаунский профессор Бен Бьюкенен, участник исследования, фокусировавшегося на пересечении проблем ИИ, кибербезопасности и управления государством.
Исследователи из Джорджтауна говорят, что GPT-3 или аналогичный алгоритм языка ИИ может оказаться особенно эффективным для автоматической генерации коротких сообщений в соцсетях, что исследователи называют дезинформацией типа «один ко многим».
В ходе экспериментов исследователи обнаружили, что текст GPT-3 может повлиять на мнение читателей по вопросам международной дипломатии. Исследователи показали добровольцам образцы твитов, написанных GPT-3, о выводе войск США из Афганистана и санкциях США в отношении Китая. В обоих случаях они обнаружили, что сообщения повлияли на участников. После просмотра постов, критиковавших санкции против Китая, процент респондентов, заявивших, что они против такой политики, удвоился.
Майк Грушчински, профессор Университета Индианы, изучающий онлайн-коммуникации, говорит, что его не удивит, если ИИ играет более важную роль в кампаниях по дезинформации. Он отмечает, что боты сыграли ключевую роль в распространении ложных нарративов в последние годы, и ИИ можно использовать для создания поддельных фотографий профилей в соцсетях. С ботами, дипфейками и другими технологиями «я действительно думаю, что, к сожалению, пределов больше нет», говорит он.
В последнее время исследователи искусственного интеллекта создали программы, способные удивительным образом использовать язык, и GPT-3, пожалуй, самая поразительная из всех. Хотя машины понимают язык не так, как люди, программы искусственного интеллекта могут имитировать понимание, просто потребляя огромное количество текста и ища закономерности в том, как слова и предложения сочетаются друг с другом.
Исследователи OpenAI создали GPT-3, скормив большие объемы текста из интернета, включая Википедию и Реддит, особенно большому алгоритму ИИ для обработки языка. GPT-3 часто ошеломлял своим очевидным владением языком, но он может быть непредсказуемым, извергая бессвязный лепет и оскорбительные или злобные выражения.
OpenAI сделал GPT-3 доступным для десятков стартапов. Предприниматели используют болтливый GPT-3 для автоматического создания электронных писем, общения с клиентами и даже написания компьютерного кода. Но некоторые виды использования программы также продемонстрировали ее темный потенциал.
Использование GPT-3 будет проблемой и для дезинформаторов. Бьюкенен отмечает, что алгоритм не кажется способным надежно генерировать последовательные и убедительные статьи намного дольше, чем твит. Но Бьюкенен предупреждает, что государственные деятели могут сделать больше с помощью языкового инструмента, такого как GPT-3. «Противники, у которых больше денег, больше технических возможностей и меньше этических норм, смогут лучше использовать ИИ». «Кроме того, машины будут только улучшаться».
OpenAI заявляет, что работа в Джорджтауне подчеркивает важную проблему, которую компания надеется решить. «Мы активно работаем над устранением рисков безопасности, связанных с GPT-3», сказал представитель OpenAI. «Мы также проверяем каждое использование GPT-3, и у нас есть системы мониторинга для ограничения и реагирования на неправомерное использование нашего API».
Дата публикации: 2021-11-24
Источник: WIRED
Источник: WIRED
Доставка цветов в егорлыкском Цветочная лавка АЖУР.