Компания Crown Sterling подала в суд на Black Hat из-за насмешек

Компания Crown Sterling подала в суд на Black Hat из-за насмешек

Компания Crown Sterling подала в суд на Black Hat из-за насмешек

Компания Crown Sterling, базирующаяся в Калифорнии и занимающаяся криптографией, подаёт в суд на UBM, организатора знаменитой конференции Black Hat, посвящённой кибербезопасности. Претензии касаются последнего мероприятия, прошедшего в США, на котором участники сорвали выступление Crown Sterling.

«Компания-разработчик в области динамического шифрования и инновационных идей в сфере искусственного интеллекта», так себя описывает сама Crown Sterling.

При этом официальный сайт компании не раскрывает информацию об используемой технологии. Вот все, что удалось найти на этот счёт: короткое видео и документ (PDF) на восемь страниц.

Известно, что компания заплатила $115 000, чтобы стать золотым спонсором конференции Black Hat. Это значит, что представителей Crown Sterling должны были обеспечить выставочным стендом.

Саму презентацию под названием «The 2019 Discovery of Quasi-Prime Numbers: What Does This Mean for Encryption?» вёл основатель и генеральный директор компании Роберт Грант.

Однако некоторым присутствующим, судя по всему, что-то не понравилось, потому что компанию в процессе презентации стали обвинять в псевдонаучном подходе.

Наиболее ярым оппонентом выступил гендиректор Trail of Bits Дэн Гидо, однако его вскоре вывели из помещения сотрудники Black Hat.

Многие эксперты позже начали откровенно глумиться над Crown Sterling в Twitter, указывая на очевидные ошибки в выступлении основателя компании. Дошло даже до обвинений мошенничестве.

Весь этот скандал в итоге привёл к тому, что организаторы Black Hat решили убрать любое упоминание проблемной презентации со своего сайта.

Именно это и послужило причиной подачи искового заявления на организатора конференции — UBM. По понятным причинам Crown Sterling хочет отстоять свою репутацию.

Американские разработчики ИИ-моделей выявляют и банят россиян

Разработчики моделей искусственного интеллекта (ИИ) Claude, ChatGPT и Gemini активно выявляют пользователей из неподдерживаемых регионов, включая Россию, и блокируют им доступ. При этом чем крупнее проект, тем выше риск столкнуться с ограничениями.

Недавно стало известно о масштабной блокировке российских пользователей компанией Anthropic, которой принадлежит ИИ-модель Claude. По данным СМИ, она затронула сотни людей и компаний. При этом удалялись все данные и аналитика, хотя деньги за подписки возвращались.

Как отметил директор по экспериментальным продуктам MWS AI, входящей в МТС Web Services, Сергей Пономаренко в беседе с РИА Новости, зарубежные разработчики продолжат применять такую практику в отношении россиян. По его оценке, под наиболее серьёзной угрозой находятся крупные проекты, по которым есть признаки корпоративного использования. Это связано с соблюдением санкционных ограничений, введённых властями США ещё в 2024 году.

«Американские компании-разработчики ИИ Anthropic, OpenAI и Google активно применяют инструменты выявления пользователей из неподдерживаемого региона и будут дальше совершенствовать их, поэтому россиян ждут новые волны блокировок в Claude, ChatGPT и Gemini», — предупредил Сергей Пономаренко.

По его словам, ограничения вводятся постепенно. Российские IP-адреса долгое время могли помечаться в базах, которыми пользуются зарубежные компании, как европейские, однако со временем такие данные уточняются. В результате сетевые адреса начинают определяться как российские, после чего к ним применяются ограничения.

Использование прокси и VPN зарубежные компании также могут отслеживать. «Подозрение могут вызвать постоянные входы из разных стран за короткое время, использование известных VPN или прокси, слишком большое количество запросов, массовое создание аккаунтов, а также попытки обойти блокировки или фильтры безопасности», — пояснил эксперт.

Часто сомнительные учётные записи сначала отправляют на проверку и не блокируют полностью. Доступ к ним могут восстановить после обращения в техническую поддержку. Однако при удалении аккаунта уничтожаются все данные. При этом сами диалоги владельцы ИИ-моделей могут сохранять, что создаёт дополнительные риски утечки информации.

RSS: Новости на портале Anti-Malware.ru