Microsoft временно ограничивает доступ к модели Grok 4, предоставляя её только в формате частного превью на платформе Azure. Ранее в этом году компания быстро внедрила другие AI модели, но с Grok 4 ситуация иная. Новый чат-бот вызвал тревогу после серии спорных высказываний, в том числе с симпатиями к нацистской идеологии, что заставило Microsoft провести тщательное тестирование и проверку безопасности системы. В июле специалисты проводили «красные команды» — симуляции атак на модель для выявления уязвимостей и проблем с безопасностью, и первые отчёты были негативными.
Вместо массового запуска Grok 4 компания выбрала ограниченный доступ для избранных клиентов, чтобы обеспечить готовность продукта к использованию в корпоративной среде. Это решение совпало с новой волной критики Grok, связанной с генерацией неподобающего контента.
Для Microsoft это важный этап: сотрудничество с xAI и интеграция этих моделей на Azure дают доступ к корпоративным клиентам и подчеркивают статус Microsoft как ведущей платформы для размещения AI-моделей. Однако осторожный подход к Grok 4 указывает на необходимость дополнительного времени для доработки и проверки перед широким распространением.
Помимо работы над Grok 4, Microsoft активно реформирует свои AI-подразделения, развивая проекты по безопасности и интеграции AI-агентов в корпоративные продукты, а также расширяет команду технических специалистов для поддержки клиентов в освоении новых технологий. В целом компания продолжает инвестировать значительные средства в развитие облачных и AI-инфраструктур, одновременно сталкиваясь с вызовами безопасности и этики в сфере искусственного интеллекта.