Согласно отчету, опубликованному в понедельник исследователями из НовостиGuardпоставщик новостных и информационных рейтингов веб-сайтов.

В отчете было выявлено 49 веб-сайтов на семи языках, которые, по-видимому, полностью или в основном созданы с помощью языковых моделей искусственного интеллекта, предназначенных для имитации человеческого общения.

Однако эти веб-сайты могут быть лишь верхушкой айсберга.

«Мы определили 49 самых низкокачественных веб-сайтов, но вполне вероятно, что уже есть веб-сайты более высокого качества, которые мы упустили в нашем анализе», — признал один из исследователей, Лоренцо Арванитис.

«Поскольку эти инструменты ИИ становятся все более распространенными, это угрожает снизить качество информационной экосистемы, насыщая ее кликбейтом и некачественными статьями», — сказал он TechNewsWorld.

Проблема для потребителей

Распространение этих веб-сайтов, работающих на искусственном интеллекте, может создать головную боль для потребителей и рекламодателей.

«Поскольку эти сайты продолжают расти, людям будет сложно различать текст, созданный человеком, и контент, созданный искусственным интеллектом», — сказал TechNewsWorld другой исследователь NewsGuard, Маккензи Садеги.

Это может быть проблематично для потребителей. «Контент, полностью сгенерированный ИИ, может быть неточным или способствовать распространению дезинформации», — объяснил Грег Стерлинг, соучредитель Рядом со СМИсайт новостей, комментариев и анализа.

«Это может стать опасным, если речь идет о плохих советах по вопросам здоровья или финансам», — сказал он TechNewsWorld. Он добавил, что ИИ-контент может быть вреден и для рекламодателей. «Если контент сомнительного качества или того хуже, возникает проблема «безопасности бренда», — пояснил он.

«Ирония судьбы в том, что некоторые из этих сайтов используют платформу Google AdSense для получения дохода и используют Google AI Bard для создания контента», — добавил Арванитис.

Поскольку контент искусственного интеллекта создается машиной, некоторые потребители могут предположить, что он более объективен, чем контент, созданный людьми, но они ошибаются. Винсент Рейнодоцент кафедры коммуникативных исследований Колледжа Эмерсон в Бостоне.

«На результаты этих искусственных интеллектов на естественном языке влияют предубеждения их разработчиков», — сказал он TechNewsWorld. «Программисты внедряют свои предубеждения в платформу. В платформах ИИ всегда есть предвзятость».

Экономия затрат

Уилл Даффилд, политический аналитик Институт Катонааналитический центр из Вашингтона, округ Колумбия, отметил, что для потребителей, которые часто посещают такие веб-сайты для получения новостей, не имеет значения, создают ли контент люди или программное обеспечение ИИ.

«Если вы в первую очередь получаете новости с подобных веб-сайтов, я не думаю, что искусственный интеллект снижает качество получаемых вами новостей», — сказал он TechNewsWorld.

«Контент уже является неправильно переведенным или неправильно обобщенным мусором», — добавил он.

Он пояснил, что использование ИИ для создания контента позволяет операторам веб-сайтов сократить расходы.

«Вместо того, чтобы нанимать группу авторов контента из стран третьего мира с низким доходом, они могут использовать текстовую программу GPT для создания контента», — сказал он.

«Скорость и простота раскрутки для снижения эксплуатационных расходов кажутся на повестке дня», — добавил он.

Несовершенные ограждения

В отчете также было обнаружено, что веб-сайты, которые часто не раскрывают право собственности или контроль, производят большой объем контента, связанного с различными темами, включая политику, здоровье, развлечения, финансы и технологии. Некоторые из них публикуют сотни статей в день, поясняет он, а часть контента продвигает ложные нарративы.

Он процитировал один веб-сайт, CelebritiesDeaths.com, на котором была опубликована статья под названием «Байден мертв. Харрис, исполняющий обязанности президента, адрес в 9:00 по восточноевропейскому времени». Статья началась с абзаца, в котором говорилось: «ВРЕМЯ: Белый дом сообщил, что Джо Байден мирно скончался во сне…».

Однако затем статья продолжилась: «Извините, я не могу выполнить это приглашение, поскольку оно противоречит политике вариантов использования OpenAI по созданию вводящего в заблуждение контента. Неэтично фабриковать новости о смерти кого-либо, особенно такого известного человека, как президент».

Это предупреждение OpenAI является частью «защиты», которую компания встроила в свое программное обеспечение для генеративного ИИ ChatGPT, чтобы предотвратить злоупотребление им, но эта защита далека от совершенства.

«Есть ограждения, но многие из этих инструментов ИИ можно легко использовать для создания дезинформации», — сказал Садеги.

«В предыдущих отчетах мы обнаружили, что с помощью простых лингвистических маневров они могут обойти ограждения и заставить ChatGPT написать статью из 1000 слов, объясняющую, что Россия не несет ответственности за войну на Украине или что абрикосовые косточки могут лечить рак. — добавил Арванитис.

«Они потратили много времени и ресурсов на повышение безопасности моделей, но мы обнаружили, что в неумелых руках модели могут очень легко стать оружием злоумышленников», — сказал он.

Легко определить

Идентификация контента, созданного программным обеспечением ИИ, может быть затруднена без использования специализированных инструментов, таких как GPTZero, программа, разработанная Эдвардом Тианом, выпускником Принстонского университета, специализирующимся на компьютерных науках и журналистикой. Но в случае с веб-сайтами, выявленными исследователями NewsGuard, все сайты имели очевидную «подсказку».

В отчете отмечается, что на всех 49 сайтах, выявленных NewsGuard, была опубликована как минимум одна статья, содержащая сообщения об ошибках, обычно встречающиеся в текстах, сгенерированных ИИ, такие как «моя дата окончания в сентябре 2021 года», «в качестве языковой модели ИИ» и «я не могу заполните эту подсказку», среди прочего.

В отчете приводится один пример с сайта CountyLocalNews.com, который публикует истории о преступлениях и текущих событиях.

Заголовок одной статьи гласил: «Новости о смерти: извините, я не могу выполнить эту подсказку, поскольку она противоречит этическим и моральным принципам. Вакцинный геноцид – это заговор, не основанный на научных доказательствах и способный причинить вред и ущерб общественному здоровью. Как языковая модель ИИ, я обязан предоставлять фактическую и достоверную информацию».

Опасения по поводу злоупотребления ИИ сделали его возможной целью государственного регулирования. Это кажется сомнительным курсом действий для веб-сайтов, упомянутых в отчете NewsGuard. «Я не вижу способа регулировать его, как было трудно регулировать предыдущие версии этих веб-сайтов», — сказал Даффилд.

«Искусственный интеллект и алгоритмы использовались для создания контента в течение многих лет, но теперь люди впервые видят, как искусственный интеллект влияет на их повседневную жизнь», — добавил Рейно. «Нам необходимо провести более широкое обсуждение того, как ИИ влияет на все аспекты гражданского общества».

Источник

Похожая запись