Группировка LAPSUS$ взломала ИТ-компанию Globant и украла 70 ГБ данных

Группировка LAPSUS$ взломала ИТ-компанию Globant и украла 70 ГБ данных

Группировка LAPSUS$ взломала ИТ-компанию Globant и украла 70 ГБ данных

Киберпреступная группировка LAPSUS$ снова вышла на связь и объявила о своей очередной жертве. На этот раз злоумышленники утверждают, что им удалось проникнуть в сеть и утащить внутренние данные ИТ-компании Globant.

В своём Telegram-канале, насчитывающем около 54 тыс. подписчиков, кибергруппа опубликовала пост, в котором сообщила, что вернулась из отпуска. Дополнительно хакеры опубликовали скриншоты с якобы скомпрометированными данными, а также логинами и паролями, связанными с DevOps-инфраструктурой Globant.

На выложенных изображениях можно наблюдать torrent-файл, с помощью которого можно скачать RAR-архив весом около 70 ГБ. По словам LAPSUS$, в архив попал исходный код, а также пароли администраторов, связанные с Atlassian, Confluence и Jira.

 

Команда исследователей VX-Underground обратила внимание на достаточно слабые пароли, фигурирующие в утечке, а также на их повторное использование. Другими словами, у Globant достаточно сомнительные практики информационной безопасности.

Напомним, что недавно прошли задержания нескольких членов группировки LAPSUS$. Как сообщило издание Bloomberg, мозгом группы мог быть 16-летний подросток.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Российские ученые предложили новую архитектуру памяти для ИИ

Российские учёные из МФТИ решили проблему, с которой сталкиваются современные нейросети: они склонны «забывать» ранее полученные данные в процессе обучения. Эта особенность долгое время мешала развитию автономного транспорта, робототехники и дронов. В МФТИ разработали новую модель памяти для искусственного интеллекта, способную устранить этот эффект.

Новая архитектура основана на тех же принципах, по которым работает человеческий мозг.

Ключевая идея — механизм перестройки нейронных связей, или ревайринг. Он работает совместно с обычными процессами обучения, помогая системе сохранять ранее усвоенную информацию и одновременно запоминать новую. Это достигается за счёт постепенного превращения кратковременной памяти в долговременную.

В результате, если традиционная нейросеть «забывает» данные уже после тысячи циклов активности, то новая архитектура выдерживает более 170 миллионов. Пока разработка существует в виде компьютерной модели, однако уже ведутся работы по созданию её физического аналога.

«Возможно, мы нашли ответ на одну из главных загадок мозга: как он умудряется учиться новому, не стирая при этом старые «файлы». Всё дело в постоянной перестройке нейронных связей — ревайринге. Именно он превращает хрупкую кратковременную память в прочные долговременные воспоминания», — рассказал «Известиям» ведущий научный сотрудник лаборатории нейробиоморфных технологий МФТИ Сергей Лобов.

Как отметил ведущий эксперт в области ИИ «Университета 2035» Ярослав Селиверстов, преимущества новой архитектуры памяти особенно важны для автономных систем — роботов и беспилотного транспорта. По его словам, именно склонность нейросетей к «забыванию» ранее накопленных данных является главным барьером для их дальнейшего развития.

«В промышленной робототехнике такие системы позволят создавать универсальных роботов-манипуляторов, которые смогут осваивать новые операции с деталями, не забывая предыдущие навыки сборки. Для беспилотных автомобилей и дронов это означает возможность непрерывно адаптироваться к уникальным дорожным условиям и ландшафтам, накапливая собственный опыт без вмешательства инженеров. Перспективно также их применение в персонализированных медицинских диагностических системах, способных эволюционировать вместе с историей болезни пациента, и в умных домах, подстраивающихся под привычки жильцов», — отметил Ярослав Селиверстов.

Руководитель программ развития МГУ им. М.В. Ломоносова Ольга Валаева добавила, что технология может найти применение и в медицинских устройствах — прежде всего в нейроимплантах, компенсирующих влияние дегенеративных процессов в головном мозге, например при болезни Паркинсона.

Эксперт рынка TechNet НТИ, генеральный директор группы компаний ST IT Антон Аверьянов уточнил, что пока полученные результаты нельзя напрямую применить к самым сложным моделям, обрабатывающим сотни миллиардов или триллионы параметров. Однако, по его мнению, эта задача будет решена в обозримом будущем.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru