Telegram предлагал эксперту деньги за молчание о баге функции самоудаления

Telegram предлагал эксперту деньги за молчание о баге функции самоудаления

Telegram предлагал эксперту деньги за молчание о баге функции самоудаления

Разработчики Telegram в этом году устранили в мессенджере ещё один баг, затрагивающий механизм самоудаления сообщений и вложений. Однако нашедший брешь исследователь недоволен медленной реакцией команды девелоперов, а также предложенным ему вознаграждением за молчание.

Как оказалось, представители Telegram хотели заплатить специалисту сумму в размере $1159, однако одним из условий было неразглашение информации о баге. Эксперт отказался.

Речь идёт о некорректной работе функции самоудаления сообщений, которая должна автоматически стирать вложения на устройствах как получателя, так и отправителя. Разработчики подают эту функциональность в качестве ещё одного опционального слоя приватности.

В феврале 2021 года вышла версия мессенджера под номером 2.6. Этот релиз, согласно описанию, отметился нововведением — возможностью задать таймер самоуничтожения отдельных сообщений. Спустя буквально несколько дней исследователь, известный под именем Дмитрий, нашёл брешь в новой функции Android-версии Telegram.

«После нескольких дней тестирования я всё-таки нашёл, что искал: запрограммированные на самоудаление сообщения уничтожились только визуально (в окне чата). На деле же все прикреплённые картинки и другие вложения оставались в кеше на устройствах пользователей», — пишет специалист в блоге.

Этой проблеме присвоили идентификатор CVE-2021-41861. Как объяснил исследователь, в Android-версии Telegram вложения из удалённых сообщений оставались в директории /Storage/Emulated/0/Telegram/Telegram Image. При этом пользовательский интерфейс давал понять, что как сообщение, так и вложения успешно удалились.

Тем не менее получить какую-либо реакцию от представителей Telegram оказалось не так просто, отметил Дмитрий. Эксперт обратился к разработчикам мессенджера в марте, но только в сентябре получил вменяемый ответ и подтверждение наличия бага.

За указание на проблему в конфиденциальности Дмитрию предложили 1159 долларов, однако одним из условий вознаграждения был запрет на разглашение информации о найденной уязвимости.

«На данный момент я не получил никакого вознаграждения», — подытожил эксперт.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

25% компаний уже столкнулись с атаками на ИИ: выводы с Swordfish PRO

Про искусственный интеллект сегодня не говорит только ленивый. Но стоит начать обсуждать безопасность — и тут же начинается путаница: какие атаки действительно грозят ML-моделям, как на них реагировать и что вообще такое MLCops? Мы съездили на Swordfish PRO DevSecOps Conf и узнали главное.

Собрали самые популярные стереотипы о применении ИИ в разработке — и попросили экспертов разнести их в пух и прах. Сперва — гостей конференции, потом — тех, кто уже работает с ИИ-секьюрити по полной.

«Атаки реальны — и происходят прямо сейчас»

Генеральный директор Swordfish Security Александр Пинаев сразу расставил точки над «i»:

«Эти атаки абсолютно реальны. Системы с большими языковыми моделями, выставленные в публичный доступ, уже сегодня атакуются самыми разными способами».

Управляющий партнёр ГК Swordfish Security Юрий Сергеев привёл свежую статистику:

«По нашему исследованию с Ассоциацией Финтех, четверть компаний в финсекторе уже столкнулась с атаками на ИИ-системы. Тренд лавинообразный — и это только начало».

 

Директор по развитию технологий ИИ в ГК Swordfish Security Юрий Шабалин добавил важную деталь: многие атаки остаются незамеченными.

«25% — это только те, кто понял, что их атаковали. На деле объектом атаки становится практически любая большая модель. Потому что инструмент взлома здесь — язык. Перефразируешь запрос чуть иначе — и модель выдаст то, что раньше “не могла”».

 

Когда атакует сам контент

Антон Башарин, управляющий директор AppSec Solutions, рассказал, как в компании обучали сканер OPSEC GENI:

«Мы тренировали его на доступных больших генеративных моделях. Отравление данных, подмена, дрифт — все эти атаки работают. ML-модели тоже подвержены эффекту “окна Овертона”: шаг за шагом нормализуешь отклонение — и поведение меняется».

Так что же делать бизнесу?

Мы задали экспертам один и тот же вопрос: какой главный совет они бы дали компаниям, которые уже сейчас хотят защититься в новой ИИ-реальности?

Вот что прозвучало:

Юрий Шабалин:

«Подходите к ИИ-нововведениям осознанно. Это не только возможности, но и риски».

Александр Пинаев:

«Начните с фреймворков. Наш, OWASP — любой. Посмотрите на классификацию угроз, на реальные примеры атак. Первый шаг — признать, что проблема существует. А дальше — просто разобраться, как именно вас могут атаковать».

Смотрите полный репортаж на любой удобной вам площадке: YouTube, VK, RuTube.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru