Новый ИИ-ассистент считывает эмоции сотрудников в режиме реального времени

Новый ИИ-ассистент считывает эмоции сотрудников в режиме реального времени

Новый ИИ-ассистент считывает эмоции сотрудников в режиме реального времени

Подразделение Augmented Communications Labs от ИТ-компании WMT Group разработало онлайн-ассистента «AC Meet» на базе искусственного интеллекта, с помощью которого работодатели смогут считывать эмоции и речь сотрудников в режиме реального времени.

Предполагается, что во время корпоративных видеозвонков ИИ-решение будет определять уровень стресса работников и предлагать способы, как адаптировать коммуникации.

Также команда WMT Group создала аналитического помощника «AC HRM», который собирает аналитику и статистику по состоянию всех сотрудников фирмы.

Компания уже провела пилотное тестирование и готова поделиться своим продуктом с россиянами, так как на отечественном технологическом рынке подобных решений в HR-Tech ранее не существовало.

WMT Group более 5 лет создает ИТ-продукты любой сложности и очень быстро внедряет их в работу. Компания разрабатывает решения на базе ИИ и помогает крупному технологическому бизнесу формировать сильные ИТ-команды. К реализованным проектам WMT Group относятся Битрикс 24, Яндекс, Sber Devices и многие другие.

Игорь Никитин, CEO WMT Group, рассказал, что многие компании не готовы внедрять ИИ во внутреннюю работу фирмы несмотря на то, что он успешно закрывает поставленные задачи. Искусственный интеллект легко и быстро автоматизирует рутинные процессы и может, как показало тестирование, адаптировать корпоративные коммуникации.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru