08.11.2023 14:20

Amazon в гонке с OpenAI инвестирует в новую языковую модель Olympus

Amazon (AMZN) инвестирует миллионы в обучение амбициозной большой языковой модели (LLM), надеясь, что она сможет конкурировать с OpenAI и Alphabet. Модель, получившая кодовое название Olympus, имеет два трлн параметров, что может сделать ее одной из самых больших обучаемых моделей. Для сравнения модель GPT-4 от OpenAI, одна из лучших доступных моделей, имеет один трлн параметров.


В Amazon пока не дают расширенную информацию по Olympus, неизвестны и сроки реализации планов. Но известно, что команду возглавляет Рохит Прасад, бывший глава Alexa, который теперь подчиняется непосредственно генеральному директору Энди Джасси. Будучи главным научным сотрудником по общему искусственному интеллекту (AGI) в Amazon, Прасад привлек исследователей, которые работали над Alexa AI, и научную команду Amazon для работы над моделями обучения, объединив усилия по искусственному интеллекту в компании с помощью выделенных ресурсов.


«Несмотря на то, что Amazon ещё весной текущего года анонсировал создание «лучшего в мире личного помощника» на основе ИИ, эти планы пока ещё далеки от практического применения. На сегодняшний день Amazon пока только нанимает команду для обучения самой большой языковой модели в мире. На Amazon Web Services уже применяется языковая модель Titan, но новая модель, как заявляют в корпорации, не будет иметь аналогов в мире. Обучение самой большой в мире языковой модели уже оценивается в несколько млн долларов, но пока не вполне понятно, ждёт ли Amazon успех в таком проекте, или ChatGPT, Bard и их зарубежные аналоги уже заняли эту нишу на рынке, и потеснить многочисленных успешных конкурентов будет весьма непросто», – говорит ведущий аналитик Freedom Finance Global Наталья Мильчакова.


Amazon уже обучил модели меньшего размера, такие как Titan. Компания также сотрудничает со стартапами, занимающимися моделями искусственного интеллекта, такими как Anthropic и AI21 Labs, предлагая их пользователям Amazon Web Services (AWS). Компания считает, что наличие доморощенных моделей может сделать ее предложения более привлекательными, где корпоративные клиенты хотят получить доступ к высокопроизводительным моделям.


Обучение более крупных моделей ИИ обходится дороже, учитывая требуемую вычислительную мощность. В апреле руководители Amazon заявили, что компания увеличит инвестиции в LLM и генеративный ИИ, сократив при этом выполнение заказов и транспортировку в своем розничном бизнесе.