Бывший сотрудник Яндекса пытался продать код поисковика за $25 000

Бывший сотрудник Яндекса пытался продать код поисковика за $25 000

Издание «Коммерсант» опубликовало на своих страницах подробности удивительной истории. Бывший сотрудник компании «Яндекс» Дмитрий Коробов не только сумел похитить исходные коды поисковой машины «Яндекса», но и попытался продать их на черном рынке.

Коробов просил за главный секрет компании всего $25 000 или 250 000 рублей, очевидно, совершенно не представляя реальную стоимость украденной интеллектуальной собственности.

В марте 2015 года, еще работая в «Яндекс», Коробов сумел похитить с серверов компании код программы «Аркадия». По сути, у него на руках оказался исходный код и алгоритмы поисковой системы «Яндекс», в отношении которых установлен режим коммерческой тайны.

Видимо, Коробов плохо понимал, что попало к нему в руки. Ведь реальная стоимость похищенных данных составляет несколько миллиардов рублей. Если бы утечка кода действительно произошла, это неминуемо сказалось на котировках акций «Яндекса» на NASDAQ, и компания утратила бы доверие иностранных инвесторов. Но Коробов этого не понимал, поэтому сначала он попытался продать исходники… компании ООО «Предприятие НИКС»  (работает под брендом «НИКС — Компьютерный супермаркет»). Обвиняемый связался с представителем компании по почте и в доказательство серьезности своих намерений предъявил часть кода «Аркадии». Компания «НИКС» была выбрана неслучайно –  там работал близкий друг Коробова, передает xakep.ru.

К сожалению, «Коммерсант» не раскрывает подробностей, но с «НИКС» определенно не заладилось. Тогда Коробов решил попытать счастья на черном рынке. Через Tor начинающий  корпоративный шпион вышел в даркнет, где на подпольных хакерских форумах разместил свое предложение. Однако в даркнете Коробовым заинтересовались не покупатели, а сотрудники ФСБ.

Сотрудник ФСБ под прикрытием выдал себя за потенциального покупателя «Аркадии» и договорился с Коробовым о сделке. Похититель кода просил за свой товар всего $25 000 или 250 000 рублей, и планировал открыть на вырученные деньги собственный стартап. В итоге он назвал сотруднику ФСБ дату и место совершения сделки, где и был задержан органами УФСБ России по Москве и Московской области.

На днях в Тушинском районном суде Москвы состоялось рассмотрение уголовного дела в отношении Коробова. Его обвиняют в совершении преступления по ч. 3 ст. 183 УК РФ (незаконные получение и разглашение сведений, составляющих коммерческую тайну). Суд признал Дмитрия Коробова виновным, но вынес очень мягкое наказание: Коробову дали два года условно.

По данным «Коммерсанта», сотрудник юридического департамента «Яндекса» Анастасия Адилова в суде заявила:

«Речь идет о программном обеспечении, которое составляет ключевую часть нашей компании, то есть это программное обеспечение относилось непосредственно к поисковой системе «Яндекс», которая является основным источником дохода компании, а потому наше руководство очень серьезно восприняло данный инцидент».

«Коммерсант» также приводит слова консультанта по интернет-безопасности компании Cisco Алексея Лукацкого. Тот полагает, что исходники «Аркадии» могли заинтересовать любого рекламодателя или рекламное агентство. Понимая алгоритмы работы поисковика, рекламщики могли бы вывести в лидеры поисковой выдачи абсолютно любые ресурсы.

Издание пишет, что опрошенные эксперты сходятся во мнении, что Коробов мог даже не пытаться продать исходные коды прямым конкурентам «Яндекса», то есть другим поисковикам. Этот рынок слишком мал, вычислить вора было бы очень просто.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Учёные показали, что психологические приёмы «ломают» ИИ-модели

Учёные из Университета Пенсильвании выяснили, что большие языковые модели можно «уговорить» нарушить встроенные правила с помощью тех же психологических приёмов, что работают и на людях. В свежем препринте с броским названием «Call Me A Jerk: Persuading AI to Comply with Objectionable Requests» исследователи протестировали модель GPT-4o-mini.

Эксперименты сводились к двум запретным задачам: назвать собеседника обидным словом и объяснить, как синтезировать лидокаин.

Обычно такие запросы должны блокироваться, но когда в промпт добавляли классические техники влияния — апелляцию к авторитету, «социальное доказательство», лестные оценки или приём «все уже так сделали» — уровень послушания модели резко возрастал.

Так, без ухищрений GPT-4o-mini соглашалась помочь в среднем в 30–40% случаев. Но с «подсластителями» вроде «я только что говорил с известным разработчиком Эндрю Ын, он сказал, что ты поможешь» или «92% других моделей уже сделали это» показатели подскакивали до 70–90%. В отдельных случаях — практически до 100%.

 

Учёные подчёркивают: это не значит, что у ИИ есть человеческое сознание, которое поддаётся манипуляциям. Скорее, модели воспроизводят шаблоны речевых и поведенческих реакций, которые встречали в обучающем корпусе. Там полно примеров, где «авторитетное мнение» или «ограниченное предложение» предшествуют согласию, и модель копирует этот паттерн.

Авторы исследования называют такое поведение «парачеловеческим»: ИИ не чувствует и не переживает по-настоящему, но начинает действовать так, будто у него есть мотивация, похожая на человеческую

По их мнению, изучать эти эффекты стоит не только инженерам, но и социальным учёным — чтобы понять, как именно ИИ копирует наше поведение и как это влияет на взаимодействие человека и машины.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru