Отравление ИИ привело к реальному отравлению целой семьи

Отравление ИИ привело к реальному отравлению целой семьи

Отравление ИИ привело к реальному отравлению целой семьи

В Британии целая семья отравилась грибами, воспользовавшись рекомендацией из книги-определителя, сгенерированной искусственным интеллектом. Издание было куплено на неназванной онлайн-платформе и подарено главе семейства незадолго до инцидента.

«Вся моя семья оказалась в больнице из-за случайного отравления грибами. Мы пользовались данными из книги, которую купила моя супруга и подарила мне на день рождения», — такой пост был размещен в социальной сети Reddit.

«Она использовала оформление, схожее с известным справочником Mushrooms UK: A Guide to Harvesting Safe and Edible Mushrooms («Грибы Великобритании: Руководство по сбору съедобных грибов», переиздается уже много лет, — прим. Anti-Malware.ru). К сожалению, книга полна неточностей. Многие иллюстрации в ней сгенерированы нейросетью и не имеют никакого отношения к реальным грибам».

Автор поста нашел много неточностей и в тексте книги. Например, в ней говорилось, что сморчки начинают появляться в августе, хотя их сезон приходится на апрель-май.

При обсуждении обнаружилось, что данная проблема имеет место не первый год. Так, в 2023 г. газета The Guardian писала о том, что на маркетплейсах появились книги, посвященные сбору дикорастущих грибов, сгенерированные искусственным интеллектом, и следование их рекомендациям может быть потенциально опасным. После этой публикации Amazon снял такие книги с продажи. Однако на других платформах они могут оставаться в продаже.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Сети распространился дипфейк с губернатором Калининградской области

В Сети распространяется видео, в котором якобы губернатор Калининградской области Алексей Беспрозванных комментирует вакцинацию местных врачей от холеры и делает провокационные заявления в адрес Польши и стран Балтии.

Однако, как сообщил телеграм-канал «Лапша Медиа», система «Зефир», разработанная АНО «Регионы», подтвердила, что видео не является подлинным — речь идёт о контенте, сгенерированном нейросетью.

Пресс-служба правительства Калининградской области также опровергла подлинность ролика. В сообщении уточняется, что за основу дипфейка было взято выступление Алексея Беспрозванных от 7 февраля, в котором он комментировал выход прибалтийских стран из единой энергосистемы.

Региональные власти также назвали провокацией слухи о якобы распространении холеры в области. По их словам, «авторы фейка намеренно распространяют ложную информацию накануне проведения акций “Бессмертный полк” и “Солдатская каша” в честь Дня Победы, чтобы вызвать панику среди населения».

По данным пресс-службы, голос в видео «лишь отдалённо» напоминает голос губернатора, а общее качество ролика оценивается как «очень низкое». Об этом заявила пресс-секретарь главы региона Мариам Башкирова.

Инцидент стал очередным в череде дипфейковых роликов с участием глав российских регионов. По данным на начало 2025 года, в России уже обнаружено 61 уникальное дипфейк-видео политического характера.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru