AI Daily|Le nouvel iPad Pro d'Apple est équipé d'une puce IA, DeepSeek-V2 est open source et un million de jetons ne coûtent que 1 yuan...

Tout le monde est invité à nous mettre en vedette sur GitHub :

Système d'apprentissage causal distribué à lien complet OpenASCE : https://github.com/Open-All-Scale-Causal-Engine/OpenASCE

Grand graphe de connaissances basé sur un modèle OpenSPG : https://github.com/OpenSPG/openspg

Système d'apprentissage de graphes à grande échelle OpenAGL : https://github.com/TuGraph-family/TuGraph-AntGraphLearning

Sujets brûlants dans ce numéro :

Apple lance le nouvel iPad Pro, équipé de la dernière puce AI

Le puissant modèle de langage MoE DeepSeek-V2 est officiellement open source, avec 1 million de jetons, et ses performances sont proches de GPT-4-turbo

OpenAI SearchGPT pourrait être lancé la semaine prochaine

L'auteur du LSTM publie une nouvelle architecture LLM destinée à remplacer Transformer

Copilot Chat est désormais entièrement disponible sur GitHub mobile

...

01. Apple lance le nouvel iPad Pro, équipé de la dernière puce AI

Apple a lancé les dernières versions de ses tablettes iPad Pro et iPad Air, ainsi qu'un nouvel Apple Pencil Pro. Au cœur du nouvel iPad Pro se trouve le nouveau processeur M4 personnalisé d'Apple, quatre fois plus puissant que les modèles iPad Pro existants.

M4 est un autre pas en avant pour les puces Apple. Il est construit sur le processus 3 nm de deuxième génération et a une meilleure efficacité énergétique. Il dispose également d'un nouveau moteur d'affichage qui peut apporter une meilleure précision, couleur et luminosité à l'écran.

Le nouveau moteur neuronal équipé de la puce M4 est presque taillé sur mesure pour les capacités d'IA, et sa puissance de calcul est augmentée de 10 à 15 % par rapport à la génération précédente M3. Le moteur de réseau neuronal est principalement responsable de la partie apprentissage automatique, comme le déverrouillage du visage, le traitement d'image, etc., et les produits équipés de puces M4 amélioreront considérablement l'efficacité d'exécution dans ces applications.

Apprendre encore plus:

https://www.cnn.com/2024/05/07/tech/apple-unveils-new-ipad-lineup/index.html

02. Le puissant modèle de langage MoE DeepSeek-V2 est officiellement open source, avec 1 million de jetons, et ses performances sont proches de GPT-4-turbo

DeepSeek a open source un puissant modèle de langage expert mixte (MoE) DeepSeek-V2. DeepSeek-V2 atteint des performances plus élevées tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal de 5,76 fois. Les performances du modèle DeepSeek-V2 sont très impressionnantes : elles dépassent GPT-4 sur le benchmark AlignBench et sont proches de GPT-4-turbo, elles sont comparables à LLaMA3-70B et meilleures que Mixtral 8x22B dans MT-Bench ; en mathématiques, code et raisonnement .

En termes de prix, le prix de l'API DeepSeek-V2 est le suivant : l'entrée par million de jetons est de 0,14 USD (environ 1 RMB) et la sortie est de 0,28 USD (environ 2 RMB, contexte de 32 000 ). Par rapport au prix GPT-4-Turbo, le prix ne représente que près d'un pour cent de ce dernier.

Apprendre encore plus:

https://stanforddaily.com/2024/04/25/openai-ceo-sam-altman-talks-ai-development-and-society/

03. OpenAI SearchGPT pourrait être lancé la semaine prochaine

OpenAI est sur le point de lancer le moteur de recherche « SearchGPT », connu en interne sous le nom de « Sonic ». En plus de la recherche de texte, il fournira également la recherche d'images, la météo, la calculatrice, le fuseau horaire et d'autres widgets et invites à poser des questions de suivi. Ceci est basé sur des captures d’écran divulguées et des informations du développeur Web Tibor Blaho.

"SearchGPT" affichera les résultats dans une fenêtre de discussion similaire à ChatGPT et résumera la page Web en 300 caractères maximum. Selon Blaho, le modèle linguistique utilisé par SearchGPT est GPT-4 Lite, GPT-4 ou GPT-3.5.

Apprendre encore plus:

https://the-decoder.com/openais-searchgpt-might-be-shown-next-monday-together-with-gpt-4-lite/

04. L'auteur de LSTM sort une nouvelle architecture LLM destinée à remplacer Transformer

Sepp Hochreiter, l'inventeur du LSTM, a publié une nouvelle architecture LLM : xLSTM L'architecture xLSTM est basée sur le LSTM traditionnel et introduit un déclenchement exponentiel avec une mémoire hybride et une nouvelle structure de mémoire. Il fonctionne bien dans la modélisation du langage par rapport aux méthodes de pointe telles que les transformateurs et les modèles spatiaux d'état. Les modèles xLSTM plus grands deviendront de sérieux concurrents aux grands modèles de langage actuellement construits à l'aide de la technologie Transformer. De plus, xLSTM a le potentiel d’avoir un impact sur divers autres domaines d’apprentissage profond, notamment l’apprentissage par renforcement, la prédiction de séries chronologiques et la modélisation de systèmes physiques.

Apprendre encore plus:

https://analyticsindiamag.com/the-inventor-of-lstm-unveils-new-architecture-for-llms-to-replace-transformers/

**05.**Copilot Chat est désormais entièrement disponible sur GitHub mobile

GitHub a annoncé mardi que Copilot Chat, son interface de chat IA permettant de poser des questions liées au codage et à la génération de code, est désormais généralement disponible sur son application mobile. Mario Rodriguez, vice-président senior des produits de GitHub, nouvellement promu, a déclaré que l'application mobile est très populaire et peut effectuer des tâches telles que les dépôts vedettes et certaines des fonctionnalités sociales de GitHub. Les développeurs utilisent également la fonction de chat mobile pour poser des questions sur des dépôts spécifiques sur. le départ. Le problème.

Apprendre encore plus:

https://techcrunch.com/2024/05/07/copilot-chat-in-githubs-mobile-app-is-now-generally-available/

Recommandations d'articles

[Recommandation spéciale pour le 1er mai] Dix documentaires sur l'IA sélectionnés, ajoutez-les à votre liste de visionnage de vacances !

Du mécanisme d'attention au RLHF, une liste à lire absolument pour débuter avec la technologie des grands modèles

Le salaire annuel peut atteindre un million ! Vous souhaitez vous lancer dans l’industrie de l’IA mais vous ne savez pas programmer ? Un article débloque 9 postes majeurs en IA qui peuvent être gérés même sans aucune connaissance en programmation.

En cas d'infraction, veuillez nous contacter pour suppression.

Suivez-nous

OpenSPG :
Site officiel : https://spg.openkg.cn
Github : https://github.com/OpenSPG/openspg

OpenASCE :
https://openasce.openfinai.org/ GitHub
 : [https://github.com/Open-All-Scale-Causal-Engine/OpenASCE ]

RustDesk suspend ses services nationaux en raison d'une fraude généralisée Apple lance la puce M4 Taobao (taobao.com) redémarre le travail d'optimisation de la version Web Les lycéens créent leur propre langage de programmation open source comme cadeau de passage à l'âge adulte - Commentaires critiques des internautes : S'appuyer sur le défense Yunfeng a démissionné d'Alibaba et prévoit de produire à l'avenir La destination pour les programmeurs de jeux indépendants . Visual Studio Code 1.89 publie Java 17. C'est la version Java LTS la plus couramment utilisée. Windows 10 a une part de marché de 70. %, et Windows 11 continue de décliner | Google soutient Hongmeng pour prendre le relais ; l'open source Rabbit R1 prend en charge l'anxiété et les ambitions de Microsoft ;
{{o.name}}
{{m.nom}}

Je suppose que tu aimes

Origine my.oschina.net/u/7032067/blog/11105591
conseillé
Classement