ИТ-гиганты нуждаются в закрытом ChatGPT

ИТ-гиганты нуждаются в закрытом ChatGPT

ИТ-гиганты нуждаются в закрытом ChatGPT

Apple запретила сотрудникам использовать ChatGPT. Причина — возможные утечки важных данных за периметр. Apple развивает теперь свой искусственный интеллект для внутреннего пользования.

Разговорная модель ChatGPT от OpenAI способна выполнять многие задачи, от ответов на вопросы до помощи в программировании. Модель работает только на серверах OpenAI или Microsoft и доступна через интернет.

Именно этот нюанс и не устраивает таких гигантов, как Apple, пишет Ars Technica.

Решение Apple ограничить использование внешних инструментов ИИ основано на опасениях, что конфиденциальные данные могут быть подвергнуты риску из-за характера этих моделей. Так, ChatGPT отправляет данные пользователей разработчикам для их обработки в облаке и помощи в улучшении будущих моделей ИИ.

OpenAI уже сталкивалась с проблемами “утечек” — ошибка позволила получить доступ к информации из чат-истории других пользователей. Так было с сотрудниками Samsung — они разболтали чат-боту ChatGPT исходный код.

В ответ на критику OpenAI внедрил опцию, которая позволяет отключать сохранение истории чатов. Это же предотвращает использование данных для обучения будущих моделей ИИ.

Apple хорошо известна своими строгими требованиями к безопасности, а ее решение запретить использование внешних инструментов ИИ отражает растущий тренд в целом.

Крупным бизнесам безопаснее развивать собственные модели для внутреннего пользования. Об этом уже говорят в том же Samsung и JPMorgan Chase. Amazon также поощряет своих инженеров использовать собственные инструменты ИИ (например, CodeWhisperer) для помощи в написании кода, а не “ходить на сторону”.

Microsoft, стоявшая у истоков OpenAI, недавно сама объявила о планах запуска версии ChatGPT, ориентированной на конфиденциальность. Аудитория таких “закрытых чатов” — банки, медцентры и другие крупные компании, у которых существуют повышенные опасения относительно утечек данных и соблюдения требований регуляторов.

Такая более дорогая бизнес-версия ChatGPT будет работать на выделенных серверах, отдельных от тех, которые служат другим компаниям или пользователями. Это позволит предотвратить случайные утечки данных и использовать их для обучения языковой модели искусственного интеллекта.

Добавим, что хотя Apple и ограничила использование ChatGPT для своих сотрудников, запрет не распространяется на приверженцев продуктов корпорации. Совсем недавно OpenAI выпустила официального клиента ChatGPT для пользователей iPhone в США.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

34% тестировщиков применяют ИИ для генерации кода, 28% — для тест-кейсов

2ГИС решила разобраться, как себя чувствует русскоязычное QA-сообщество: чем пользуются тестировщики, как устроены процессы и как в работу проникает искусственный интеллект. В исследовании поучаствовали 570 QA-специалистов, почти половина из них работают в крупных компаниях.

57% опрошенных сказали, что подключаются к разработке фич ещё на этапе обсуждения требований — то есть задолго до появления кода.

Лишь 20% приходят в проект только после завершения разработки. А вариант «подключаюсь, когда в продакшене что-то сломалось» — уже почти экзотика.

89% команд используют автотесты — от юнитов до UI. Но вот инструменты вокруг них, вроде поддержки, аналитики и стабильности, применяют далеко не все. Например, код-ревью автотестов делают только 39% опрошенных, а 28% команд вообще не отслеживают никаких метрик и работают «вслепую».

ИИ используют не все, и в основном — для рутинных задач

Хотя ИИ уже прочно вошёл в мир тестирования, чаще всего его применяют для типовых задач:

  • написание тестового кода (34%),
  • генерация тест-кейсов (28%),
  • и тестовых данных (26%).

 

Более продвинутые сценарии вроде анализа тестов, автоматического поиска багов и визуального тестирования пока используются редко. Например, только 5% автоматизируют дефект-дискавери, и лишь 4% пробуют AI для визуальных проверок. А 22% QA-специалистов вообще не используют ИИ в своей работе.

Главные проблемы в тестировании

На первом месте — сжатые сроки. Об этом сказали 71% участников опроса. На втором — слабое вовлечение QA в процессы (40%) и нехватка квалифицированных специалистов (37%).

Как измеряют качество

  • Главная метрика — количество найденных багов (58%).
  • Покрытие автотестами учитывают 43%, покрытие кода — только 23%.
  • Стабильность тестов (например, чтобы они не «флапали») отслеживают всего 15% команд.

Что будет с профессией дальше? Мнения разделились:

  • 37% считают, что всё уйдёт в тотальную автоматизацию;
  • 35% уверены, что ничего особо не поменяется;
  • почти треть верит, что QA станет глубже интегрироваться в специфические направления вроде ИБ и производительности;
  • 27% видят будущее за DevOps и SRE — то есть тесной работой на всех этапах: от разработки до эксплуатации.
AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru