Специалист сообщил Apple об уязвимостях в ее защитной системе

Сайт разработчиков Apple взломал турецкий специалист

Исследователь систем безопасности из Турции взял на себя ответственность за взлом профессионального ресурса Apple, предназначенного для разработчиков. Именно он обнаружил уязвимость в системе. Напомним, что ранее Apple официально объявила о взломе сайта для разработчиков, где хранилась информация о 275 тысячах специалистов.

Турецкий специалист Ибрагим Балик (Ibrahim Balic) говорит, что он, прежде всего, хотел показать, что система Apple была ненадежной и через нее можно было осуществлять утечки пользовательской информации. Он опубликовал видео на Youtube, где показал, что вебсайт был уязвим для атак. Эксперт добавил, что обо всех найденных ошибках компания знала. В сопроводительном скриншоте видно, что сообщение о баге было отправлено сотрудникам Apple 19 июля 2013 года.

«Я не собирался никого атаковать. Я обнаружил 13 ошибок и сообщил о них напрямую Apple. И как только я рассказал об этом, вебсайт сразу же закрыли. Они ко мне не обращались, но официально объявили, что на компанию напали. Я же сообщил об ошибках и собрал необходимые данные, чтобы понять, как далеко можно зайти», – говорит Балик в интервью Guardian.

В письме Apple написала, что взломщик предпринял попытку заполучить личную информацию о зарегистрированных разработчиках и возможно похитил их пароли, имена и адреса. Компания не сообщала, кто совершил атаку и зачем.

Твит Балика в котором он извиняется за публикацию конфиденциальной информации.

Это первый широко известный взлом веб-сервиса Apple. У компании имеется сотни миллионов пользователей, которые зарегистрированы в iTunes и App Store, однако эти системы не пострадали от нападений. Apple благоразумно держит уязвимую информацию с этих ресурсов отдельно.

Впрочем, большие технологические компании все равно часто остаются целью для умелых хакеров. Например, в апреле 2011 года Sony была вынуждена прекратить работу веб-сервиса PlayStation Network, которым пользовалось 77 млн человек. Тогда хакеры похитили личные данные многих пользователей системы (позже выяснилось, что имена и пароли хранились в незашифрованном виде). Хакеров так и не нашли.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Учёные показали, что психологические приёмы «ломают» ИИ-модели

Учёные из Университета Пенсильвании выяснили, что большие языковые модели можно «уговорить» нарушить встроенные правила с помощью тех же психологических приёмов, что работают и на людях. В свежем препринте с броским названием «Call Me A Jerk: Persuading AI to Comply with Objectionable Requests» исследователи протестировали модель GPT-4o-mini.

Эксперименты сводились к двум запретным задачам: назвать собеседника обидным словом и объяснить, как синтезировать лидокаин.

Обычно такие запросы должны блокироваться, но когда в промпт добавляли классические техники влияния — апелляцию к авторитету, «социальное доказательство», лестные оценки или приём «все уже так сделали» — уровень послушания модели резко возрастал.

Так, без ухищрений GPT-4o-mini соглашалась помочь в среднем в 30–40% случаев. Но с «подсластителями» вроде «я только что говорил с известным разработчиком Эндрю Ын, он сказал, что ты поможешь» или «92% других моделей уже сделали это» показатели подскакивали до 70–90%. В отдельных случаях — практически до 100%.

 

Учёные подчёркивают: это не значит, что у ИИ есть человеческое сознание, которое поддаётся манипуляциям. Скорее, модели воспроизводят шаблоны речевых и поведенческих реакций, которые встречали в обучающем корпусе. Там полно примеров, где «авторитетное мнение» или «ограниченное предложение» предшествуют согласию, и модель копирует этот паттерн.

Авторы исследования называют такое поведение «парачеловеческим»: ИИ не чувствует и не переживает по-настоящему, но начинает действовать так, будто у него есть мотивация, похожая на человеческую

По их мнению, изучать эти эффекты стоит не только инженерам, но и социальным учёным — чтобы понять, как именно ИИ копирует наше поведение и как это влияет на взаимодействие человека и машины.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru