top of page

Видеогенератор открытого ИИ Sora открывает двери пропаганде

Sora создает по описанию заказчика продолжительностью в одну минуту видео, точно также, как ChatGPT отвечает на письменные запросы или как Dall-E предлагает иллюстрации. Новая технология позволяет показывать видео истории за значительно меньший использованный ресурс, но которые позволяют усилить влияние дезинформации и сделать проправительственную пропаганду намного эффективнее, ослабляя и без того сумрачную границу между правдой и фейком. Видео, созданные при помощи ИИ (искусственный интеллект), на самом деле усиливают влияние точек зрения, которые разжигают рознь, но которые созданы на базе информации, найденной в сети. 


“Ясность правды, которую мы осознавали на базе фотографий и видео, исчезла”, – сказал профессор ИТ Унивесритета Нортвестерна Кристиан Хаммонд. “Мы сами того не подозревая выстроили мир моторов пропаганды”.


Кристиан Хаммонд


На вопрос ABC News, что предпринято для исключения злоупотреблений программой Sora, OpenAI отправил на свою домашнюю страничку. Там написано, что перед использованием этих продуктов надо предпринять некоторые шаги по безопасности. “Мы сотрудничаем с нашими экспертами по дезинформации или по содержанию, вызывающему рознь – они протестируют модель”.


Предприятие намерено использовать некоторые элементы безопасности от генератора картинок Dall-E, например таких, которые используют выброски из текста для проверки на “чистоту содержания, использования чужих ИП-адресов и правового использования личных данных известных персон”.


Очень тяжело оценивать демо версии продуктов, которые еще не доступны широкой общественности, но независимо от этого надо быть крайне осторожным с нецелевым использованием возможностей видео генераторов и вызовами разнообразных программ по обеспечению безопасности.


Риски от содержания, созданного искусственным интеллектом, достаточно высоки. Об этом свидетельствуют и новости последних недель. Поп-дива Тэйлор Свифт стала жертвой из-за созданных ИИ вульгарных и сексуальных фейковых изображений в соцсетях в январе, что вызвало миллионы просмотров. Фейковое звуковое робот-сообщение с голосом Джо Байдена вызвало реакцию людей перед предвыборной гонкой в Нью-Гемпшире.


Sora, как и другие генерированные продукты искусственного интеллекта, обучены по данным из сети, оставляя ее уязвимой для широко репродуцированным предвзятым мнениям, например, как расизм или гендерные стереотипы. Помимо видеоклипов и ими созданному модерированному содержанию, планирует OpenAI применить так называемый “классификатор распознавания”, который сможет распознать когда программа Sora создала видео. На домашней страничке выделено, что это содержит и признанный популярным дигитальный ярлык, который по сути означает цифровой водяной знак. Такие методы очень кстати, однако видео можно тиражировать или менять под видом снятия этих знаков. “Это как гонка вооружения, потому что люди пытаются обойти установленные завесы безопасности”, – сказал Хаммонд.


Об опасностях, которые таит в себе ИИ, недавно писал и один из известнейших экспертов по пропаганде Георгий Почепцов: “Сегодня появился еще один «заказчик» для такого рода обманных задач — это искусственный интеллект, который может вести такую работу, а может и сам оказаться объектом этого воздействия. Он может опираться на информационные потоки, в которые будет заложена недостоверная информация и тогда таким же будет и его результат. О последнем варианте специалисты говорят так: «Большой проблемой является то, что сама информация может быть недостоверной. Источником этого могут быть вебсайты и взаимодействие с людьми. Есть много возможностей для плохих игроков изменить эту информацию, как во время обучения искусственного интеллекта, так и после, в то время как искусственный интеллект будет улучшать свое поведение благодаря взаимодействию с физическим миром. Это приведет к тому, что он начнет действовать нежелательным образом. Чат боты, например, могут научиться отвечать, используя оскорбительные или расистские высказывания, когда их запреты будут обходиться тщательно продуманными вредоносными подсказками».

 

Источник «Propastop». Статью к публикации подготовили добровольцы Центра Гражданского Сопротивления "Res Publica".


InformNapalm_logo_07.png

Partneris Lietuvoje

bottom of page