Коллекция новых трендов крупных моделей середины сентября 2023 года.

Коллекция новых трендов крупных моделей середины сентября 2023 года.

  • 20.09.2023
  • Заявление об авторских правах: Эта статья является оригинальной статьей блоггера chszs и не может быть воспроизведена без разрешения блоггера.

1. Microsoft выпускает небольшую модель phi-1.5 с 1,3 миллиарда параметров

11 сентября 2023 года Microsoft Research выпустила новую предварительно обученную языковую модель под названием phi-1.5 с общим количеством 1,3 миллиарда параметров, подходящих для вопросов и ответов, формата чата и кода, а также других сценариев. phi-1.5 использует различные наборы данных, такие как контент вопросов и ответов в разделе Python на платформе StackOverflow, коды соревнований в code_contests, синтетические учебники Python, генерация gpt-3.5-turbo-0301 и т. д., в дополнение к новым данным, состоящим из различных НЛП. синтетические тексты.источник.

Microsoft заявила, что в тестах, проверяющих здравый смысл, понимание языка и логическое мышление, phi-1.5 превзошел большинство моделей с параметрами ниже 1 миллиона. phi-1.5 превосходит llama-2 из Meta с 7 миллиардами параметров по шкале AGIEval; в наборе текущих оценок GPT4AL с LM-Eval Harness он сопоставим с llama-2 с 7 миллиардами параметров.

2. По количеству активных пользователей в месяц приложение искусственного интеллекта Character.ai догоняет ChatGPT.

Character.ai — разработчик приложений искусственного интеллекта, который позволяет пользователям создавать собственных персонажей с искусственным интеллектом. Согласно недавнему анализу, проведенному фирмой по исследованию рынка, компания Likeweb, приложения для iOS и Android от Character.ai на базе a16z в настоящее время имеют 4,2 миллиона активных пользователей в месяц в США, а мобильное приложение ChatGPT имеет почти 6 миллионов активных пользователей в месяц в США. Тем не менее, ChatGPT по-прежнему значительно опережает Character.ai в Интернете — скорее всего, потому, что многие пользователи Character.ai предпочитают создавать своих чат-ботов с искусственным интеллектом и взаимодействовать с ними на своих личных мобильных устройствах, а не через веб-сайт.

3. Stability AI запускает Stable Audio, который генерирует до 90 секунд аудио на основе текста.

Компания Stability AI недавно запустила Stable Audio, которая может автоматически генерировать музыку или аудио на основе текста, введенного пользователями. Бесплатная версия Stable Audio может создавать музыкальные клипы продолжительностью до 20 секунд, а пользователи могут создавать аудиоконтент продолжительностью до 90 секунд после покупки подписки Pro.

4. NVIDIA выпускает бета-версию программного обеспечения с открытым исходным кодом TensorRT-LLM

NVIDIA выпустила бета-версию программного обеспечения с открытым исходным кодом TensorRT-LLM. Чтобы подать заявку на загрузку, пользователям необходимо зарегистрироваться в программе разработчиков NVIDIA. Ожидается, что официальная версия программного обеспечения будет выпущена в ближайшие недели и вскоре будет интегрирована в среду NVIDIA NeMo, которая является частью программной платформы AI корпоративного уровня NVIDIA AI Enterprise. TensorRT-LLM — это библиотека с открытым исходным кодом, которая ускоряет и оптимизирует производительность вывода последней версии LLM на графических процессорах NVIDIA Tensor Core.

5. Платформа большой модели Baidu Intelligent Cloud Qianfan адаптируется к Falcon-180B.

Платформа больших моделей Qianfan от Baidu Smart Cloud недавно была адаптирована к большой модели Falcon-180B, выпущенной 6-го числа, и предоставляет полноценную цепочку инструментов и среду разработки для точной настройки модели, развертывания и разработки приложений, что упрощает работу предприятий. и разработчики, чтобы испытать это первыми. Falcon-180B-Chat — это модель 180B, разработанная TII, в которой используется только декодер. Она настроена на смешанный набор данных Ultrachat, Platypus и Airoboros и имеет отличные результаты вывода. Эта модель в настоящее время открыта для тестирования корпоративных пользователей. Если вы хотите ее использовать, заполните форму заявки.

6. Крупное приложение модели искусственного интеллекта Alibaba «Taobao Asking» начинает внутреннее тестирование.

Крупномасштабное приложение Alibaba для моделирования искусственного интеллекта «Taobao Wenqi» проходит внутреннее тестирование. Говорят, что Taobao Wenqi может понимать потребности потребителей в разных категориях и областях, а также реализовывать потребности и сценарии в поиске информации, создании креативного контента и т. д. В настоящее время приложение можно отправить на внутреннее тестирование, выполнив поиск «Taobao Wenqi» в приложении Taobao или приняв участие в тестировании с помощью кода приглашения. Чиновник не раскрыл время, когда приложение будет полностью запущено.

Аналогичным образом, eBay, зарубежный гигант электронной коммерции, недавно запустил инструмент искусственного интеллекта для продавцов, который может создавать списки товаров на основе одной фотографии. В настоящее время он доступен только в версии для iOS, а версия для Android будет запущена в следующем году. несколько недель. Инструмент автоматически создает заголовки и описания на основе фотографий, а также информацию, включая даты запуска продукта, а также предоставляет категории, подкатегории, прейскурантную цену, предложения по доставке и многое другое. Если кратко, то это функция поиска товаров по картинкам.

7. Правильно используйте подсказки, чтобы повысить производительность до 50 %.

Команда Google DeepMind опубликовала документ, в котором говорится, что слова-подсказки, разработанные с помощью большой модели, могут повысить производительность набора данных Big-Bench Hard до 50%. Команда заявила, что если к слову-подсказке добавить «Сделай глубокий вдох», то математический балл большой модели ИИ может увеличиться еще на 8,4 балла, и это слово-подсказку было найдено самим ИИ. Используя это новое слово-подсказку в сочетании с ранее обнаруженным «Давайте подумаем шаг за шагом», оценка большой модели в наборе данных GSM8K может быть улучшена с 71,8 балла до 80,2 балла.

8. Модель кода CodeFuse с открытым исходным кодом Ant Group.

Недавно Ant Group впервые открыла исходный код CodeFuse, большой модели кода. CodeFuse разработан на основе базовой большой модели Ant.В недавней оценке завершения кода HumanEval CodeFuse набрал 74,4%, превысив 67% у GPT-4 и 73,2% у WizardCoder-34B. Этот контент с открытым исходным кодом включает в себя фреймворки кода, модели и т. д., которые теперь доступны на таких платформах, как HuggingFace. Часть структуры кода включает в себя самостоятельно разработанную структуру многозадачной тонкой настройки (MFT), которая поддерживает генерацию кода, перевод кода, генерацию тестовых примеров, исправление ошибок и другие 10 задач, которые необходимо доработать вместе. Модельная часть включает в себя две большие модели: CodeFuse13B-4K и CodeFuse-CodeLlaMa34B-MFT.

9. Мультимодальная большая модель Гоби против Близнецов.

По данным зарубежного СМИ The Information, новая мультимодальная большая модель OpenAI под названием Gobi уже находится в стадии интенсивной подготовки. OpenAI планирует запустить мультимодальную LLM до выпуска Gemini, полностью победив Google. В отличие от GPT-4, Гоби изначально построен на мультимодальной модели.

С другой стороны, Google также начала приглашать некоторых внешних разработчиков для ускорения тестирования будущей мультимодальной большой модели Gemini следующего поколения. Недавно The Information эксклюзивно сообщила, что Gemini, возможно, скоро будет готова к тестовому выпуску и будет интегрирована в ее собственные сервисы, такие как Google Cloud Vertex AI. По словам человека, участвовавшего в тесте, Gemini имеет преимущество перед GPT-4 как минимум в одном аспекте: помимо общедоступной информации в Интернете модель также использует большое количество собственных данных из потребительских продуктов Google (поиск, YouTube). Gemini должны быть особенно точны в понимании намерений пользователя по конкретному запросу и, похоже, дают меньше неправильных ответов (то есть галлюцинаций). Большая модель Gemini следующего поколения от Google начала обучение на новом модуле TPUv5 Pod с вычислительной мощностью до ~1e26 FLOPS, что в 5 раз превышает вычислительную мощность обучения GPT-4.

Acho que você gosta

Origin blog.csdn.net/chszs/article/details/133075001
Recomendado
Clasificación