top of page

МИР

Активист Робби Старбак подал в суд на Meta из-за высказываний ИИ о нём

Иск о клевете утверждает, что Meta AI ошибочно связывает активиста с беспорядками 6 января в Вашингтоне.


Консервативный активист Робби Старбак подал иск о клевете против компании Meta, утверждая, что её инструмент искусственного интеллекта оклеветал его, ложно заявив, что он участвовал в беспорядках 6 января 2021 года в Капитолии США.


По словам Старбака, он обнаружил эту проблему прошлым летом, когда вёл онлайн-кампанию, направленную на то, чтобы заставить Harley-Davidson пересмотреть свою политику в области разнообразия, равенства и инклюзивности (DEI). Один из дилеров Harley в штате Вермонт ответил, опубликовав в X (бывший Twitter) 5 августа скриншот, якобы сгенерированный Meta AI, в котором говорилось, что Старбак участвовал в беспорядках в Капитолии и был связан с движением QAnon.


Старбак в тот же день опроверг эти утверждения и заявил в соцсетях: «Meta услышит от моих юристов». По его словам, спустя месяцы Meta AI продолжал выдавать те же недоказанные обвинения, после чего он подал иск.


Иск был подан во вторник в Верховный суд штата Делавэр, и в нём Старбак требует более $5 миллионов в качестве компенсации ущерба.


«Начинаешь задумываться, насколько далеко это может распространиться в обществе», — сказал Старбак в интервью. Он выразил обеспокоенность тем, как ИИ может использоваться для оценки кредитоспособности, страховых рисков или общей репутации.


Представитель Meta заявил: «В рамках нашей постоянной работы по улучшению моделей, мы уже выпустили обновления и продолжим это делать».


Старбак присоединился к небольшому числу истцов, пытающихся привлечь ИИ-компании к ответственности за ложную и вредящую репутации информацию, сгенерированную большими языковыми моделями. Пока ни один суд в США не присудил компенсацию за клевету, исходящую от чат-бота с ИИ.


Судья в округе Гвиннетт, штат Джорджия, в прошлом году разрешил перейти к этапу расследования в деле о клевете против OpenAI, отклонив ходатайство компании об отклонении иска.


В этом деле ведущий консервативного радио Марк Уолтерс утверждает, что ChatGPT заявил, будто он является фигурантом иска о хищении средств из организации по защите прав на оружие.


Слушания по ходатайству OpenAI о вынесении решения в порядке упрощённого судопроизводства состоялись в апреле. В свою защиту OpenAI подчеркнула, что часто предупреждает пользователей о возможной недостоверности информации, создаваемой ChatGPT, и отметила, что Уолтерс не уведомлял компанию об ошибке и не требовал опровержения до подачи иска.


В 2023 году компания Microsoft также подверглась иску со стороны мужчины, который утверждал, что поисковая система Bing и ИИ-чатбот компании перепутали его с осуждённым террористом с похожим именем. Федеральный судья в Мэриленде приостановил дело в октябре 2024 года, постановив, что истец должен обратиться в арбитраж для рассмотрения своих претензий против Microsoft.


Microsoft и OpenAI отказались от комментариев, кроме представленных в суде материалов.


Как правило, соцсети и другие интернет-платформы не несут ответственности за публикации пользователей. Однако, по мнению юристов, федеральный закон, известный как Раздел 230, не распространяется на «человекообразные» ответы, сгенерированные ИИ-программами в ответ на пользовательские запросы.


Клэр Норинс, директор Клиники Первой поправки в Школе права Университета Джорджии, считает, что ИИ-компании не могут просто полагаться на отказ от ответственности в виде дисклеймеров, предупреждающих о возможной недостоверности информации.


«Это не страховка от иска о клевете», — говорит она.


Однако для установления юридической ответственности истцы должны как минимум доказать наличие небрежности со стороны реальных людей.


«Если ИИ-компанию уведомили о том, что программа распространяет ложные сведения о человеке, и ничего не предпринято для исправления ошибки, это существенно укрепляет дело о клевете», — считает Норинс.


Когда Старбак в прошлом году узнал, что ИИ Meta говорит о нём, он через X обратился к руководству компании, включая генерального директора Марка Цукерберга, с требованием удалить недостоверную информацию. По его словам, его адвокат направил компании письмо-претензию с требованием прекратить клевету.


Старбак утверждает, что 6 января 2021 года он находился в родном штате Теннесси. Его исследовательская команда, которая обычно занимается сбором информации о корпоративной политике, с которой они не согласны, пыталась выяснить источник данных, на которых основывался ответ Meta AI, но ничего не нашла.


Через несколько дней юрист Meta сообщил адвокату Старбака Кристе Бауман, что «Meta серьёзно относится к утверждениям, изложенным в вашем письме, и проводит расследование», как говорится в иске.


Однако, согласно жалобе, Meta AI продолжал утверждать, что Старбак вошёл в Капитолий 6 января. Старбак и его команда также проверили информацию с помощью других ИИ-инструментов — ChatGPT и Grok от xAI, которые подтвердили, что Старбак не был на беспорядках, и указали, что ложное утверждение возникло на платформе Meta AI.


По состоянию на этот месяц Meta AI затруднил поиск информации о Старбаке. При прямых запросах об активисте ИИ отвечал: «Извините, сейчас не могу помочь с этим запросом», говорится в иске и проверках, проведённых The Wall Street Journal.


Тем не менее, согласно иску, голосовая функция Meta AI всё ещё выдавала ложную информацию о Старбаке, утверждая, что он признал себя виновным в нарушении общественного порядка в связи с беспорядками в Капитолии и продвигал отрицание Холокоста.

Делиться

bottom of page