- les modèles s'améliorent progressivement mais rien de magique
- 1ère vague de l'explosion des applications d'IA pour les consommateurs... mais ce sont des choses comme des compagnons IA, de la pornographie, de la musique IA, des films, etc.
- cela endort l'humanité au niveau 2 du pays des gooners ( le 1er était tiktok, insta etc ) les rendant plus complaisants
- les taux de natalité continuent de diminuer en raison de
- les robots finissent par remplacer de nombreux rôles que les humains occupent aujourd'hui (robots domestiques, robots de travail)
- les agents ne sont pas utiles, ce qui déclenche une période de mise à niveau / création d'une nouvelle infrastructure spécifique aux agents + couche middleware.
- une nouvelle architecture LLM est découverte qui accélère l'intelligence du modèle grâce au calcul en temps de test par rapport à l'entraînement préalable
- cela entraîne des modèles plus petits ( qui s'adaptent aux appareils portables) pour mieux performer que les modèles plus grands d'aujourd'hui.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
chronologie alternative de l'IA :
- pas d'AGI pendant au moins 10+ ans
- les modèles s'améliorent progressivement mais rien de magique
- 1ère vague de l'explosion des applications d'IA pour les consommateurs... mais ce sont des choses comme des compagnons IA, de la pornographie, de la musique IA, des films, etc.
- cela endort l'humanité au niveau 2 du pays des gooners ( le 1er était tiktok, insta etc ) les rendant plus complaisants
- les taux de natalité continuent de diminuer en raison de
- les robots finissent par remplacer de nombreux rôles que les humains occupent aujourd'hui (robots domestiques, robots de travail)
- les agents ne sont pas utiles, ce qui déclenche une période de mise à niveau / création d'une nouvelle infrastructure spécifique aux agents + couche middleware.
- une nouvelle architecture LLM est découverte qui accélère l'intelligence du modèle grâce au calcul en temps de test par rapport à l'entraînement préalable
- cela entraîne des modèles plus petits ( qui s'adaptent aux appareils portables) pour mieux performer que les modèles plus grands d'aujourd'hui.