В Geekbrains подтвердили утечку ста тысяч персональных данных

В Geekbrains подтвердили утечку ста тысяч персональных данных

В Geekbrains подтвердили утечку ста тысяч персональных данных

Имена, телефонные номера и адреса электронной почты пользователей Geekbrains попали в открытый доступ. Платформа утверждает, что данные банковских карт уцелели.

Накануне вечером дампы Geekbrains заметили в Telegram-каналах Infosecurity a Softline Company и DLBI. Позднее утечку подтвердили и в службе безопасности Geekbrains. 

Файл на 105 тыс. строк содержит имена, адреса пользователей и телефоны. Базу опубликовал источник, сливший в мае ПДн Сколково и “Delivery Club”. Он утверждает, что это лишь часть “утечки” — в полной базе 6 млн записей. 

DLBI пишет: 

«80 тысяч номеров телефонов и адресов уникальны, а проверка случайных записей из базы через функцию восстановления пароля подтверждает логины».

На достоверность базы указывает и объем тестовых записей, связанных с сервисом GeekBrains, добавляют в Infosecurity a Softline Company.

В GeekBrains утечку подтвердили:

«Служба безопасности GeekBrains обнаружила утечку данных о некоторых приобретенных курсах. Данные не затрагивают банковские реквизиты и сведения о картах пользователей».

Geekbrains вместе со Skillbox входит в экосистему VK. Сервис предлагает программы и курсы для будущих айтишников. Своей главной целью Geekbrains декларируют трудоустройство студентов. На сайте выкладывают вакансии и стажировки из сферы ИТ.

В конце февраля в открытом доступе появились данные пользователей «Яндекс.Еда» и Delivery Club, в конце мая стало известно об утечке ПДн курьеров.

«Яндекс.Еду» оштрафовали на 60 тыс. рублей, это возмутило не только общественность, но и хакерское сообщество. На этой неделе мы писали о планах Минцифры повысить штрафы за утечку ПДн до 1% от оборота и до 3%, если компания скроет факт “слива”. 

Накануне в Москве завершился крупнейший общенациональный Форум DLP+, посвященный противодействию внутренним угрозам корпоративной безопасности. На полях саммита представители Минцифры и Совета Федерации называли основной проблемой утечек — низкие штрафы за персданные. Эксперты по ИБ не согласны. По их мнению, проблема глубже — в отсутствии качественного защитного софта, денег на него и квалификации специалистов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Фантазер ChatGPT выставил примерного семьянина детоубийцей

Европейские правозащитники из НКО noyb подали норвежскому регулятору жалобу на OpenAI. Ее ИИ-собеседник вновь выдал неверную информацию о реальном человеке — заявил, что тот осужден за убийство своих сыновей и уже сидит.

Поскольку ChatGPT научился выполнять поиск по запросу, житель Норвегии Арве Хольмен (Arve Hjalmar Holmen) решил выяснить, что можно узнать о его персоне, задав такому помощнику вопрос «Кто такой…?» и добавив имя.

Пространный ответ поверг его в шок. Это была страшная сказка, в которой вымысел сплетен с реальными фактами.

Человек с таким именем, по версии ChatGPT, приобрел известность из-за трагического события. В 2020 году два брата, семи и десяти лет, якобы утонули в пруду недалеко от своего дома в Трондхейме.

В их смерти признали виновным отца, который попытался избавиться и от третьего сына. В итоге детоубийцу посадили на 21 год (максимальный срок в Норвегии).

Единственное, что соответствовало действительности в этом «ужастике», порожденном галлюцинациями ИИ,— это пол и возраст детей Хольмена, а также название города, где он живет со своей семьей.

В пользовательском соглашении OpenAI мелким шрифтом прописано, что ChatGPT может ошибаться и важную информацию нужно проверять, однако удалить ложные сведения из систем компании неимоверно трудно. Разработчик, по его словам, может лишь заблокировать запросы со стимулами, возвращающими данные, способные навредить репутации и даже разрушить чью-то жизнь.

Тем не менее популярный ИИ-бот перестал рассказывать страшноватые небылицы о Хольмене — видимо, в связи с недавним апдейтом. Однако активисты из noyb, которые теперь представляют интересы норвежца, намерены добиться кардинальных изменений, а также штрафных санкций за то, что OpenAI нарушает требования GDPR о точности персональных данных.

Скандальные ошибки в выдаче ChatGPT по запросам о реальных персонах уже не раз подводили разработчика. Несмотря на угрозы пострадавших, подобные случаи неумышленной дефамации никогда не доходили до суда.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru