В России начнут маркировать контент, сгенерированный нейросетью

В России начнут маркировать контент, сгенерированный нейросетью

В России начнут маркировать контент, сгенерированный нейросетью

Материалы, созданные нейросетью, российские сервисы будут автоматически маркировать четкими и заметными графическими знаками. По словам Антона Немкина, члена комитета Госдумы по информационной политике, это поможет усмирить бесконтрольное использование ИИ.

Начальник управления киберразведки и цифровой криминалистики Angara Security Никита Леокумович сообщил изданию «КоммерсантЪ», что стремительно развивающийся искусственный интеллект несёт в себе опасность.

Например, он может нарушать нормы морали и права человека, создавая вымышленные факты и генерируя дипфейки. Именно поэтому очень важно маркировать материалы, сгенерированные с помощью нейросети, включая текст, изображения и видео.

Огромное количество исходных кодов нейросети доступно любому пользователю. Возможно, из-за этого число мошенников, использующих ИИ, заметно выросло.

Сейчас есть возможность проверить, сгенерировано ли изображение с помощью искусственного интеллекта или создано человеком. Пользователю достаточно загрузить картинку на сервис (есть как платные, так и бесплатные), где алгоритм, основанный на ИИ, даст ответ.

По подсчётам компании «Диалог Регионы», около 12 миллионов дипфейков было обнаружено на просторах рунета в 2023 году. Исследователи предполагают, что к 2024 году это число вырастет до 15 млн.

Ярослав Шицле, руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» предполагает, что если сервисы не будут придерживаться требований и автоматически маркировать создаваемый ИИ контент, их будут блокировать или даже привлекать к ответственности.

О том, что вид графических символов на материалах может повлиять на рекламный рынок, рассказал управляющий партнер агентства PRT Edelman Глеб Сахрай. Пока неизвестно, насколько большой будет надпись, и как будут относиться люди к контенту, зная, что он сгенерирован нейросетью. Возможно, рекламные агентства снова прибегнут к помощи копирайтеров и дизайнеров.

Примечательно, что подобный закон в Евросоюзе уже действует с марта этого года. По сообщениям компании OpenAI, изображения, созданные ChatGPT, уже маркируются. Видео, сгенерированные встроенными алгоритмами в TikTok, помечаются платформой.

Газонокосилка под контролем хакера: у Yarbo нашли опасные уязвимости

Исследователь в области безопасности Андреас Макрис обнаружил серьёзные уязвимости в роботах Yarbo — модульных садовых устройствах, которые могут работать как газонокосилки, снегоуборщики, воздуходувки, триммеры и кромкорезы. Проблема в том, что такие роботы можно удалённо перехватить, причём речь идёт не об одном устройстве, а потенциально о тысячах по всему миру.

Yarbo продаёт универсальные дворовые роботы стоимостью около 5000 долларов. В их основе один и тот же модуль на гусеницах, к которому подключаются разные насадки. И именно этот общий модуль, по словам исследователя, оказался плохо защищён.

Как утверждает Макрис, если получить доступ к одному роботу Yarbo, можно добраться и до остальных. В ходе демонстрации он показал карту примерно с 5400 устройствами в США и Европе и более чем 11 000 роботов по всему миру. Затем исследователь смог удалённо подключиться к одному из роботов в штате Нью-Йорк и управлять его камерой и движением.

Самое тревожное — это не только возможность покатать чужой гаджет по газону. Робот может передавать точные GPS-координаты, изображение с камер, адреса электронной почты владельцев и даже пароли от Wi-Fi. Журналист The Verge проверил эти данные на практике: по координатам он нашёл реальные дома владельцев Yarbo, а один из них подтвердил, что показанные исследователем пароли от Wi-Fi действительно принадлежат ему.

По словам Макриса, у всех роботов Yarbo используется одинаковый жёстко заданный root-пароль. Более того, даже если владелец вручную меняет его, обновление прошивки снова возвращает пароль к стандартному значению. Также исследователь говорит о встроенном механизме удалённого доступа, который автоматически разворачивается на каждом роботе, не может быть отключён владельцем и восстанавливается при удалении.

Злоумышленник может следить за участком через камеры робота, изучать расписание владельцев, пытаться атаковать домашнюю сеть или превращать устройство в часть ботнета. А в случае с газонокосилкой риски становятся ещё и физическими: у устройства есть лезвия, а некоторые команды позволяют обходить защитные механизмы. Макрис утверждает, что даже после нажатия аварийной кнопки остановки удалённый оператор может отправить команду разблокировки.

Чтобы показать масштаб проблемы, журналист The Verge провёл контролируемый эксперимент: лёг перед роботом Yarbo, а исследователь, находясь в Германии, удалённо управлял устройством в США. Лезвия при этом не вращались, а робот двигался задним ходом, но даже так тяжёлое устройство прижало человека к земле. Демонстрация получилась наглядной: небезопасный умный гаджет может быть опасен не только для данных, но и физически.

 

Макрис решил опубликовать информацию об уязвимостях без ожидания патчей от производителя. По его словам, у Yarbo не было понятного канала для сообщений об уязвимостях, а поддержка компании сначала описывала удалённый доступ как безопасную диагностическую функцию.

После публикации Yarbo заявила, что серьёзно относится к проблеме. Компания пообещала внедрить подтверждение удалённого доступа пользователем, более прозрачную историю сессий, усиленное журналирование, отдельный центр реагирования на уязвимости и, возможно, программу баг-баунти.

Тем не менее часть проблем, судя по описанию, находится не только в приложении или серверной логике, но и в прошивке самих роботов. А значит, Yarbo предстоит не просто подкрутить настройки, а серьёзно пересмотреть подход к безопасности устройств.

RSS: Новости на портале Anti-Malware.ru