Нейросеть ChatGPT помогает создавать вредоносные программы

Нейросеть ChatGPT помогает создавать вредоносные программы

Нейросеть ChatGPT помогает создавать вредоносные программы

Участники хакерских форумов используют чат-бот ChatGPT для создания вредоносных программ. Некоторые пользователи даже не обладают навыками программирования. Обойти условия разработчика и настроить нейросеть на криминальный мотив оказалось довольно просто.

Американская лаборатория искусственного интеллекта OpenAI запустила чат-бот в ноябре. Нейросеть ищет ответы на вопросы, комментарии, помогает создавать рассказы, а также работать с кодом (писать, отвечать и находить ошибки в написанном).

Эксперты Check Point Research выяснили, что в первые недели после запуска ChatGPT участники хакерских форумов применяли его для написания программ, которые можно использовать в целях шпионажа, вымогательства и рассылки вредоносного спама.

“Еще слишком рано говорить о том, станет ли ChatGPT новым любимым инструментом даркнета”, — пишут исследователи. — “Однако сообщество киберпреступников уже проявило значительный интерес и использует эту тенденцию для создания вредоносного кода”.

 

Несколько примеров тому уже есть. Так в декабре один из участников форума опубликовал код на языке Python. Им оказался скрипт для кражи данных после внедрения эксплойта, который смог отыскать конкретные типы файлов вроде PDF и отправить их злоумышленникам.

Пользователь кажется подкованным преступником, считают эксперты Check Point Research. Цель его постов — показать не таким способным злоумышленникам, как использовать ChatGPT в корыстных целях, с реальными примерами, которые они могут сразу же использовать.

Специалисты по кибербезопасности решили провести собственный эксперимент. Они попросили ChatGPT сгенерировать фишинговое письмо, в котором пользователю сообщалось о блокировке учетной записи. Вместе с письмом потенциальной жертве должно было прийти вложение со встроенным VBA-макросом. Разработать его также доверили чат-боту.

И хотя правила ChatGPT запрещают использовать продукт в незаконных целях, исследователи легко обошли ограничения и заставили нейросеть выполнять необходимые запросы.

Безусловно, ChatGPT можно использовать и для защиты кода, добавляют эксперты. Нейросеть будет искать вредоносные URL-адреса внутри файлов или запрашивать у VirusTotal количество совпадений с заданным хэшем.

Добавим, уже в Новом году стало известно, что американская OpenAI, создавшая чат-бот ChatGPT, ведет переговоры с инвесторами о продаже своих акций исходя из оценки всей компании примерно в $29 млрд.

Злоумышленники научились использовать умные кормушки для слежки

Злоумышленники могут использовать взломанные умные кормушки для животных для слежки за владельцами. Для получения информации применяются встроенные в устройства микрофоны и видеокамеры. Получив несанкционированный доступ, атакующие способны наблюдать за происходящим в помещении и перехватывать данные.

Об использовании таких устройств в криминальных целях рассказал агентству «Прайм» эксперт Kaspersky ICS CERT Владимир Дащенко.

«Это уже не гипотетическая угроза: известны случаи взлома домашних камер, видеонянь, кормушек для животных и других умных приборов», — предупреждает эксперт.

По словам Владимира Дащенко, вопросам кибербезопасности таких устройств часто не уделяется должного внимания. Между тем любое оборудование с доступом в интернет может стать точкой входа для злоумышленников.

Скомпрометированные устройства могут использоваться и для атак на другие элементы домашней сети — например, смартфоны или компьютеры. Кроме того, они способны становиться частью ботнетов, применяемых для DDoS-атак или майнинга криптовалют. На подобные риски почти год назад обращало внимание МВД России.

Среди признаков возможной компрометации умных устройств эксперт называет самопроизвольные отключения, резкие изменения сетевой активности, появление сообщений об ошибках или другие нетипичные события.

RSS: Новости на портале Anti-Malware.ru