Наталья Касперская пока против крупных штрафов за утечки данных компаний

Наталья Касперская пока против крупных штрафов за утечки данных компаний

Наталья Касперская пока против крупных штрафов за утечки данных компаний

Глава InfoWatch Наталья Касперская не считает правильным вводить в России крупные штрафы за утечку данных из компаний. В этой связи руководитель рабочей группы по информационной безопасности в рамках проекта «Цифровая экономика» призывает не проводить аналогии с другими странами.

Свою позицию госпожа Касперская обозначила в интервью изданию ТАСС. Свои выводы специалист подкрепляла данными из отчётов аналитиков InfoWatch.

В частности, Касперская отметила, что речь в последнее время может идти не о росте самих утечек данных, а об увеличении количества сообщений о подобных инцидентах. В России этот показатель выше, что можно объяснить несколькими факторами.

«Прежде всего, в США и других странах за утечки довольно жёстко наказывают. Вторая причина может заключаться в ускоренных темпах цифровизации России», — утверждает Касперская.

Таким образом, как считает глава InfoWatch, в стране может не хватать квалифицированных кадров, а внедрение правил безопасности может не поспевать за скоростью цифровизации. Именно поэтому Касперская не видит смысла вводить «такие же драконовские меры», как на Западе.

В России традиционно всё идёт несколько медленнее — например, наказаний за компрометацию данных компаний на сегодняшний день крайне мало, лишь недавно ситуация начала меняться.

Также Касперская обратила внимание на рост числа утечек, связанных непосредственно с плохой защищённостью сетевых облачных хранилищ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru