Хакеры взломали аккаунты знаменитостей в Instagram

Хакеры взломали аккаунты знаменитостей в Instagram

Хакеры взломали аккаунты знаменитостей в Instagram

Уязвимость образовалась из-за ошибки в программном интерфейсе, и злоумышленники заполучили мейлы и номера телефонов пользователей. Персональные данные популярных пользователей оказались под угрозой. Как пишет Variety, у одного или нескольких хакеров оказался доступ к их аккаунтам после того, как в ресурсе появилась уязвимость, которую сейчас уже устранили.

В частности, в пресс-службе компании Instagram заявили, что некие лица — одно или несколько — получили "незаконный доступ к контактным данным популярных пользователей". Речь идёт об адресах электронной почты и номерах телефонов, пишет life.ru.

«Недавно мы обнаружили, что одно или несколько лиц получили незаконный доступ к контактным данным популярных пользователей, в частности, адресам электронной почты и номерам телефонов, используя ошибку в программном интерфейсе Instagram», - заявила пресс-службы сервиса.

Они стали уязвимы из-за ошибки в программном интерфейсе ресурса. Хакеры при этом не получили доступа к паролям и другим конфиденциальным данным пользователей. В пресс-службе заверили, что эта ошибка уже устранена.

Имена пользователей, которые пострадали от атаки, в компании Instagram называть не стали. Только отметили, что взлому подверглись владельцы аккаунтов с большим числом подписчиков.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Использование генеративного ИИ ухудшает качество кода

Использование генеративного искусственного интеллекта (ИИ) в разработке программного обеспечения может негативно сказываться на качестве кода. Это связано с так называемыми «галлюцинациями» больших языковых моделей, риском утечек кода, а также с тем, что ИИ нередко воспроизводит уже существующие ошибки и уязвимости.

Влиянию генеративного ИИ на процессы разработки было посвящено выступление основателя компании CodeScoring Алексея Смирнова на конференции «День безопасной разработки», организованной Ассоциацией разработчиков программных продуктов (АРПП) «Отечественный софт».

Как отметил Алексей Смирнов, галлюцинации ИИ в контексте программирования чаще всего проявляются в рекомендациях использовать несуществующие библиотеки — таких случаев может быть до 20%. Причём ещё год назад эта проблема практически не наблюдалась.

По его мнению, этим недостатком могут воспользоваться злоумышленники, подсовывая разработчикам заведомо уязвимые или вредоносные компоненты. Особенно опасно то, что в 58% случаев галлюцинации ИИ повторяются — а значит, подобрать нужное название несуществующей библиотеки становится проще.

Смирнов также сообщил, что с появлением ИИ-ассистентов количество утечек кода увеличилось на 40%. Утечки данных, использованных для обучения нейросетей, в целом являются типичной проблемой. Например, в модели угроз, разработанной в Сбере, такая угроза считается одной из ключевых.

Кроме того, по данным CodeScoring, в каждом третьем случае ИИ-ассистенты воспроизводят уязвимости в коде. Таким образом, надежды на то, что генеративные инструменты смогут автоматически находить и устранять уязвимости, не оправдались. Более того, как подчеркнул Алексей Смирнов, накопленный опыт показывает, что применение генеративного ИИ затрудняет работу статических анализаторов кода.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru