Мошенники прячут вирусы в текстах

Мошенники прячут вирусы в текстах

Ученые разработали новую технологию, которая позволяет прятать вредоносный код внутри обычных английских предложений. Хакеры могут обойти большинство существующих сегодня антивирусов, спрятав вредоносный код внутри обычного текста, говорят специалисты по безопасности.

По словам Джоша Мейсона (Josh Mason) из Университета Джона Хопкинса в Балтиморе, нынешние антивирусные системы основываются на предположении, что вредоносный код отличается от обычного текста, такого как английская проза, так как имеет другую структуру.

Однако сейчас группа исследователей обнаружила способ прятать вирусы внутри обычных английских предложений. Ученые разработали технологию, которая умеет проводить поиск по большому количеству текстов на английском языке (более 15 тыс. статей из Wikipedia и около 27 тыс. книг), находя в них комбинации слов, которые можно использовать во вредоносном коде.

 Источник

 

Комитет Госдумы уличили в использовании ChatGPT

В пояснительной записке к законопроекту «О государственной поддержке молодёжных и детских общественных объединений» обнаружили следы использования ChatGPT. В одной из ссылок присутствовала характерная метка, которую оставляет зарубежный чат-бот.

Об этом сообщил портал Rozetked, ссылаясь на многочисленные обсуждения в соцсетях и телеграм-каналах.

История быстро получила широкий резонанс. Так, член СПЧ, глава проекта «Белый Интернет», профессор МГИМО Элина Сидоренко назвала произошедшее вопиющим случаем:

«Ну вот и приехали. ИИ в пояснительных записках Госдумы — открыто, без стеснения и стыда… А ведь это не просто констатация невнимательности аппарата Госдумы, это показатель того, что данные сливаются в американский ИИ, это становится нормой, никто не задумывается о безопасности данных».

Пост Сидоренко перепостил и официальный телеграм-канал Совета при Президенте по развитию гражданского общества и правам человека.

Ранее ФСТЭК отнесла утечки данных к числу наиболее специфичных рисков, связанных с использованием ИИ, включая генеративные модели. С декабря 2025 года такие угрозы включены в базу данных угроз (БДУ) регулятора.

В то же время комитет Госдумы по молодёжной политике опроверг использование чат-бота при подготовке текста законопроекта. При этом там признали, что один из сотрудников аппарата применял ChatGPT на этапе поиска и анализа материалов.

«Материалы к законопроекту готовились на протяжении двух лет исключительно депутатами совместно с командой юристов аппарата комитета. Сама пояснительная записка написана человеком, что подтверждается анализом, проведённым рекомендованным к использованию в государственных органах российским ИИ-ассистентом GigaChat. При этом подготовка законопроекта — настолько сложная и профессиональная задача, что ИИ в принципе не способен с ней справиться», — заявили в пресс-службе Комитета Госдумы по молодёжной политике.

RSS: Новости на портале Anti-Malware.ru