ИТ-гиганты нуждаются в закрытом ChatGPT

ИТ-гиганты нуждаются в закрытом ChatGPT

ИТ-гиганты нуждаются в закрытом ChatGPT

Apple запретила сотрудникам использовать ChatGPT. Причина — возможные утечки важных данных за периметр. Apple развивает теперь свой искусственный интеллект для внутреннего пользования.

Разговорная модель ChatGPT от OpenAI способна выполнять многие задачи, от ответов на вопросы до помощи в программировании. Модель работает только на серверах OpenAI или Microsoft и доступна через интернет.

Именно этот нюанс и не устраивает таких гигантов, как Apple, пишет Ars Technica.

Решение Apple ограничить использование внешних инструментов ИИ основано на опасениях, что конфиденциальные данные могут быть подвергнуты риску из-за характера этих моделей. Так, ChatGPT отправляет данные пользователей разработчикам для их обработки в облаке и помощи в улучшении будущих моделей ИИ.

OpenAI уже сталкивалась с проблемами “утечек” — ошибка позволила получить доступ к информации из чат-истории других пользователей. Так было с сотрудниками Samsung — они разболтали чат-боту ChatGPT исходный код.

В ответ на критику OpenAI внедрил опцию, которая позволяет отключать сохранение истории чатов. Это же предотвращает использование данных для обучения будущих моделей ИИ.

Apple хорошо известна своими строгими требованиями к безопасности, а ее решение запретить использование внешних инструментов ИИ отражает растущий тренд в целом.

Крупным бизнесам безопаснее развивать собственные модели для внутреннего пользования. Об этом уже говорят в том же Samsung и JPMorgan Chase. Amazon также поощряет своих инженеров использовать собственные инструменты ИИ (например, CodeWhisperer) для помощи в написании кода, а не “ходить на сторону”.

Microsoft, стоявшая у истоков OpenAI, недавно сама объявила о планах запуска версии ChatGPT, ориентированной на конфиденциальность. Аудитория таких “закрытых чатов” — банки, медцентры и другие крупные компании, у которых существуют повышенные опасения относительно утечек данных и соблюдения требований регуляторов.

Такая более дорогая бизнес-версия ChatGPT будет работать на выделенных серверах, отдельных от тех, которые служат другим компаниям или пользователями. Это позволит предотвратить случайные утечки данных и использовать их для обучения языковой модели искусственного интеллекта.

Добавим, что хотя Apple и ограничила использование ChatGPT для своих сотрудников, запрет не распространяется на приверженцев продуктов корпорации. Совсем недавно OpenAI выпустила официального клиента ChatGPT для пользователей iPhone в США.

Злоумышленники научились использовать умные кормушки для слежки

Злоумышленники могут использовать взломанные умные кормушки для животных для слежки за владельцами. Для получения информации применяются встроенные в устройства микрофоны и видеокамеры. Получив несанкционированный доступ, атакующие способны наблюдать за происходящим в помещении и перехватывать данные.

Об использовании таких устройств в криминальных целях рассказал агентству «Прайм» эксперт Kaspersky ICS CERT Владимир Дащенко.

«Это уже не гипотетическая угроза: известны случаи взлома домашних камер, видеонянь, кормушек для животных и других умных приборов», — предупреждает эксперт.

По словам Владимира Дащенко, вопросам кибербезопасности таких устройств часто не уделяется должного внимания. Между тем любое оборудование с доступом в интернет может стать точкой входа для злоумышленников.

Скомпрометированные устройства могут использоваться и для атак на другие элементы домашней сети — например, смартфоны или компьютеры. Кроме того, они способны становиться частью ботнетов, применяемых для DDoS-атак или майнинга криптовалют. На подобные риски почти год назад обращало внимание МВД России.

Среди признаков возможной компрометации умных устройств эксперт называет самопроизвольные отключения, резкие изменения сетевой активности, появление сообщений об ошибках или другие нетипичные события.

RSS: Новости на портале Anti-Malware.ru