В 2022 году Kaspersky создаст порядка тысячи новых рабочих мест

В 2022 году Kaspersky создаст порядка тысячи новых рабочих мест

В 2022 году Kaspersky создаст порядка тысячи новых рабочих мест

До конца 2022 года «Лаборатория Касперского» планирует создать около тысячи новых рабочих мест. Большая часть из них — для направления исследований и разработки в России, включая департамент, который отвечает за кибериммунную операционную систему KasperskyOS.

Среди других направлений, для которых активнее всего планируется привлекать новые таланты, — Core Technologies, занимающееся разработкой базовых компонентов, на основе которых строятся продукты и сервисы компании. Сотрудники этого департамента совершенствуют инструменты разработки, формируют её принципы и процессы. Также расширяется подразделение Cloud Infrastructure & Web Development, чья сфера деятельности — разработка облачной инфраструктуры, сервисов и систем автоматического детектирования угроз, развитие корпоративных сайтов «Лаборатории Касперского».

Наиболее востребованы в компании специалисты со знанием С/С++, JavaScript, С#/.Net, DevOps, UI/UX-дизайнеры, а также аналитики, тестировщики (Automation/Manual testing), Android и iOS-разработчики. В «Лаборатории Касперского» также ведут переговоры о возможном трудоустройстве со специалистами, которые работали в ушедших с российского рынка компаниях.

«Лаборатория Касперского» в прошлом году перешла на три формата работы: офисный, удалённый и гибридный. Формат работы определяется руководителем и сотрудником, учитывая особенности его задач и специфику работы в команде. Благодаря этому компания может обеспечить более комфортные рабочие условия для своих сотрудников и повысить их эффективность, рационально задействовать офисное пространство и не испытывать в будущем нехватки рабочих зон.

«Мы активно ищем новые таланты, в портфолио „Лаборатории Касперского“ множество различных продуктов и сервисов. Только на данный момент у нас открыто более 200 вакансий, в дальнейшем мы планируем постепенно увеличивать это количество, — отмечает Марина Алексеева, директор по работе с персоналом „Лаборатории Касперского“. — Мы стараемся прилагать максимум усилий, чтобы коллегам было комфортно, и вкладываемся в сотрудников. Так, в апреле мы провели запланированную индексацию и подняли зарплаты в среднем на 20%. К тому же у нас один из лучших соцпакетов на рынке: расширенный ДМС со стоматологией, врач и корпоративный психолог прямо в офисе, компенсация питания, обучение и многое другое».

Описания вакансий доступны на careers.kaspersky.ru.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru