Экс-инженер Google предупредила об опасности создания роботов-убийц

Экс-инженер Google предупредила об опасности создания роботов-убийц

Экс-инженер Google предупредила об опасности создания роботов-убийц

Инженер, работавшая в Google над печально известным проектом военных дронов, предупредила об очередной опасности, которую несут современные разработки. По словам экс-сотрудницы американской корпорации, людям стоит опасаться создания роботов-убийц.

Лаура Нолан проработала в Google четыре года, после чего её задействовали в проекте, над которым интернет-гигант трудился совместно с Министерством обороны США. В 2017 году этому проекту было присвоено имя — Project Maven.

Основная задача Project Maven была сосредоточена вокруг усовершенствования военных дронов с помощью искусственного интеллекта. Специалисты трудились над созданием ИИ-систем, которые бы вычисляли вражеские объекты и при этом различали людей и неодушевлённые предметы.

Google пришлось заморозить проект после того, как сотрудники взбунтовались — многие подписали петицию против Project Maven. Ещё десятки людей выразили свой протест, просто перестав работать над проектом.

В числе тех, кто задумывался над опасностью реализации таких ИИ-систем, была и Лаура Нолан.

«Все это может потенциально привести к незаконным убийствам и неоправданному зверству. Даже учитывая условия и законы войны, если выпустить сотни или тысячи таких машин, они могут навредить больше, чем помочь», — передаёт слова специалиста Business Insider.

Тем не менее многие страны продолжают все плотнее внедрять искусственный интеллект в военные системы, создавая все более смертоносную коллаборацию. Именно поэтому Нолан предлагает запретить создание роботов-убийц и регламентировать это так же, как сейчас регламентировано использование химического оружия.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Данные ЭКГ можно деанонимизировать с точностью 85%

Исследователи показали, что даже данные электрокардиограммы (ЭКГ), которые часто выкладываются в открытый доступ для медицины и науки, можно связать с конкретным человеком. И сделали это с высокой точностью — до 85 процентов совпадений, используя машинное обучение.

Главная проблема в том, что ЭКГ-сигналы уникальны и стабильны, словно отпечатки пальцев.

Даже если убрать имя и другие «очевидные» идентификаторы, сами сердечные ритмы остаются индивидуальными. А значит, их можно сопоставить с записями из носимых гаджетов, телемедицины или утечек медкарт.

Учёные протестировали метод на данных 109 участников из разных публичных наборов и выяснили: даже с шумом и искажениями система уверенно «узнаёт» людей. Простое обезличивание уже не спасает — риск повторной идентификации слишком высок.

 

Авторы предупреждают: такие атаки не требуют доступа к больничным серверам или инсайдеров. Достаточно сопоставить разные источники информации и применить алгоритмы.

Чтобы снизить риски, исследователи предлагают признать ЭКГ полноценным биометрическим идентификатором, ужесточить правила его обработки и обязательно предупреждать пациентов о возможностях повторной идентификации.

Кроме того, нужно ограничивать свободный обмен «сырыми» файлами между организациями и требовать специальных соглашений и проверок.

И это касается не только ЭКГ. Похожие уязвимости есть у PPG-сигналов (датчики пульса), голоса и даже электроэнцефалограмм. По мере того как носимые устройства и нейроинтерфейсы входят в обиход, объём таких биометрических данных растёт — а вместе с ним и поле для атак.

Иными словами, в здравоохранении нарастает новая угроза: медицинские датчики становятся инструментом не только врачей, но и потенциальных киберпреступников.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru