Российские компании адаптировались: ущерб от утечек данных снижается

Российские компании адаптировались: ущерб от утечек данных снижается

Российские компании адаптировались: ущерб от утечек данных снижается

Второе полугодие 2020 года отметилось для российских компаний меньшими финансовыми потерями из-за утечек информации. По данным аналитиков компании «Крок», за первое полугодие различные сливы нанесли ущерб в 1,8 миллиардов рублей, а за другие шесть месяцев этот показатель составил 1,2 млрд руб.

Специалисты считают, что изменения стали следствием более продуманной безопасности удалённой работы. С приходом пандемии COVID-19 организации не сразу нащупали новую стратегию, но уже во втором полугодии им удалось улучшить защиту дистанционных сотрудников.

Тем не менее эксперты «Крок» подчеркнули, что на сегодняшний день большинство жертв утечек данных узнают о компрометации слишком поздно — когда все сведения уже выставлены на продажу.

Согласно результатам исследования «Крок», с которыми ознакомился «КоммерсантЪ», за весь 2020 год сумма ущерба от утечек данных превысила 3 миллиарда рублей. Однако прослеживается и положительная тенденция: финансовые потери постепенно снижаются.

Звучит логично, поскольку компании начинают постепенно адаптироваться к новым условиям работы. Сейчас уже никого не напугаешь необходимостью организовать удалённое рабочее место и максимально обезопасить дистанционное подключение.

К слову, снижение суммы ущерба за второе полугодие 2020 года подтверждают и другие специалисты. Например, в InfoWatch зафиксировали 22-процентный спад числа утечек по вине сотрудников.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru