ChatGPT научили работать с macOS-приложениями Xcode, Terminal, TextEdit

ChatGPT научили работать с macOS-приложениями Xcode, Terminal, TextEdit

ChatGPT научили работать с macOS-приложениями Xcode, Terminal, TextEdit

ИИ-бот OpenAI теперь умеет читать проекты, над которыми работают программисты в macOS-приложениях. Новая возможность снимает необходимость копипастить код в запросы к ChatGPT на оказание помощи в решении текущих проблем.

Механизм Work with Apps («Работа с приложениями») пока поддерживает VS Code, Xcode, TextEdit, Terminal и iTerm2. Бета-версия доступна пользователям ChatGPT Plus и Teams, тестирование в Enterprise и Edu запустят в следующем месяце; состоится ли порт на Windows, пока неизвестно.

Для работы с большинством перечисленных приложений ChatGPT требуется доступ к API специальных возможностей macOS (Accessibility); это разрешение всегда можно откатить в настройках чат-бота. Работа с VS Code потребует установки специального расширения.

 

Когда функция активна, ChatGPT автоматически приобщает контент из приложения к входящему сообщению. Можно поставить фокус на определенном фрагменте кода, и умный помощник подскажет, как его скорректировать.

Так, в ходе тестов он помог исправить инструмент моделирования, создаваемый в Xcode: тот упорно исключал Землю из Солнечной системы. Написанная ИИ строка кода при этом соответствовала формату проекта.

 

К сожалению, вносить свои исправления в текущие разработки, как это делают Cursor или GitHub Copilot, чат-бот OpenAI пока не научился.

«Это [Work with Apps] не агент, а способ взаимодействия с инструментами программирования, список которых будет расширяться, — пояснил для TechCrunch руководитель по десктопным продуктам компании Александер Эмбирикос (Alexander Embiricos). — Думаю, он может стать ключевым элементом агентских систем. Суть в том, что ChatGPT понимает весь ваш контент и может помочь в работе с ним».

Нельзя не отметить, что бурный рост популярности ИИ, в том числе в России, несет в себе определенные риски. Большие языковые модели (БЯМ, LLM) могут взломать и заставить выдавать неправильные ответы; они не застрахованы от ошибок, к тому же склонны к галлюцинациям.

Расширение использования ИИ-помощников также грозит появлением новой зависимости. Привычка полагаться на подобные подпорки вполне может привести к снижению уровня знаний и навыков не только у профессионалов, но и у тех, кто идет им на смену.

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru