Литовец признал в суде, что обманул Google и Facebook на $123 млн

Литовец признал в суде, что обманул Google и Facebook на $123 млн

Литовец признал в суде, что обманул Google и Facebook на $123 млн

Гражданин Литвы признался в мошенничестве в отношении Google и Facebook. Используя фейковые счета-фактуры, преступник заставлял служащих переводить деньги на свои банковские счета. В общей сумме доход злоумышленника от такой деятельности составил $123 миллиона.

В итоге 50-летний Эвалдас Римасаускас выслушал вчера приговор суда в Нью-Йорке. Теперь ему грозит до 30 лет лишения свободы.

Римасаускас был арестован полицией Литвы в марте 2017 года, позже (в августе) был экстрадирован в США для предъявления обвинений.

Сторона обвинения утверждает, что преступник создал компанию, имя которой было очень похоже на Quanta — поставщика аппаратного обеспечения для дата-центров, который имеет безупречную репутацию.

Злоумышленник атаковал Google и Facebook по той причине, что обе корпорации имели бизнес-отношения с Quanta, которая поставляла им оборудование для дата-центров.

Согласно материалам дела, Римасаускас рассылал Google и Facebook электронные письма, которые были замаскированные под отправленные Quanta счета-фактуры. Таким образом, Google и Facebook должны были заплатить за якобы оказанные услуги и приобретенные продукты.

Преступник использовал довольно хитрые приемы, благодаря которым ему действительно удалось ввести в заблуждение сотрудников двух крупных американских корпораций.

В результате Google пострадала на $23 миллиона, а Facebook — на $100 миллионов.

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru