Microsoft заявляет, что Copilot предназначен только для развлечений, а не для серьёзных задач
Microsoft активно продвигала свои ИИ-сервисы, особенно с запуском Copilot+ PC, но, похоже, даже сама компания не доверяет своему творению. Согласно Условиям использования Microsoft Copilot, обновлённым в октябре прошлого года, эта большая языковая модель (LLM) предназначена только для развлекательного использования, и пользователям не следует полагаться на неё в важных вопросах. Хотя это может быть стандартной юридической оговоркой, она выглядит довольно иронично на фоне того, как усердно компания пытается внедрить Copilot в бизнес-процессы и интегрировала его в Windows 11.
«Copilot предназначен только для развлекательных целей. Он может допускать ошибки и работать не так, как задумано», — говорится в документе. «Не полагайтесь на Copilot в важных вопросах. Используйте Copilot на свой страх и риск».
Это касается не только Copilot. Другие ИИ-модели имеют аналогичные предупреждения. Например, xAI заявляет, что искусственный интеллект может «иногда: а) выдавать результат, содержащий «галлюцинации», б) быть оскорбительным, в) неточно отражать реальных людей, места или факты, или г) быть предосудительным, неуместным или иным образом неподходящим для вашей цели».
Для тех, кто знаком с принципами работы LLM, это звучит как здравый смысл. К сожалению, некоторые люди воспринимают вывод ИИ как истину в последней инстанции, включая тех, кто должен знать лучше. Например, сообщалось, что некоторые сбои в сервисах Amazon Web Services (AWS) были вызваны ИИ-ботом для написания кода, которому инженеры позволили решить проблему без контроля. Сам сайт Amazon также сталкивался с серьёзными инцидентами, связанными с «изменениями, выполненными с помощью Gen-AI», что вынуждало созывать совещания старших инженеров.
Генеративный ИИ — полезный инструмент, способный повысить продуктивность, но он остаётся всего лишь инструментом, который не несёт ответственности за свои ошибки. Поэтому пользователи должны всегда подвергать сомнению его выводы и перепроверять результаты. Однако даже осознавая ограничения текущих технологий, люди подвержены «предвзятости автоматизации» — мы склонны доверять результатам, полученным машинами, и игнорировать противоречащие им данные. ИИ может усугубить эту проблему, особенно потому, что он способен генерировать результаты, которые на первый взгляд выглядят правдоподобно или даже достоверно.
Компании обычно добавляют подобные оговорки к своим продуктам и услугам для защиты от судебных исков. Но, продвигая свои ИИ-сервисы как идеальный инструмент для повышения продуктивности, технологические гиганты могут преуменьшать связанные с ними риски, чтобы привлечь платящих клиентов и окупить миллиарды, вложенные в оборудование и специалистов.
Источник: Tomshardware.com







0 комментариев