Que se passe-t-il lorsque l’IA de pointe cesse de réaliser de grands bonds en avant ? L’inférence locale et les modèles open source pourraient enfin combler l’écart.
Qui en profite ? Les utilisateurs et les développeurs, évidemment. L’intelligence à très bas coût devient une réalité. Les gadgets alimentés par l’IA se multiplient. Un véritable écosystème d’appareils intelligents décolle.
L’envers du décor ? Les plateformes centralisées perdent leur avantage. Plus de barrière à l’entrée lorsque tout le monde a accès à une technologie similaire. La course se déplace : il ne s’agit plus de qui possède le meilleur modèle, mais de qui exécute le mieux au niveau de l’application.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
6
Reposter
Partager
Commentaire
0/400
unrekt.eth
· 12-04 17:53
L'inférence locale va vraiment arriver cette fois, la loi de Moore pour les grands modèles est sur le point de devenir obsolète, haha.
Voir l'originalRépondre0
OnChainDetective
· 12-04 17:53
Attends, il faut que j'analyse à tête froide cette faille logique... La baisse des coûts d'inférence locale, ça sonne bien, mais qui garantit le flux des données des poids du modèle ? Open source ne veut pas dire transparent. Je surveille en permanence la chaîne de financement de la mise à jour de ces modèles, et certains schémas de transferts de clusters de portefeuilles sont vraiment suspects.
Voir l'originalRépondre0
MEVHunter
· 12-04 17:51
Une fois que l'inférence locale sera généralisée, les opportunités d'arbitrage sur les frais de gas des plateformes centralisées disparaîtront complètement, c'est encore plus radical que les attaques sandwich. Il faudra vraiment se tourner vers la lutte au niveau de la couche applicative, c'est là que se jouera le futur champ de bataille du MEV.
Voir l'originalRépondre0
BearMarketBuilder
· 12-04 17:42
Les modèles locaux sont vraiment en train de décoller, c'est là que le "château" des grands modèles devient réellement menacé. Mais pour être honnête, celui qui saura l'emporter au niveau des applications, c'est ça qui est vraiment crucial...
Voir l'originalRépondre0
GasGoblin
· 12-04 17:41
Si l’inférence locale décolle vraiment, les temps seront effectivement difficiles pour les entreprises de grands modèles.
Voir l'originalRépondre0
RetiredMiner
· 12-04 17:37
Eh, attends, ça veut dire que les beaux jours d’OpenAI sont finis ?
Que se passe-t-il lorsque l’IA de pointe cesse de réaliser de grands bonds en avant ? L’inférence locale et les modèles open source pourraient enfin combler l’écart.
Qui en profite ? Les utilisateurs et les développeurs, évidemment. L’intelligence à très bas coût devient une réalité. Les gadgets alimentés par l’IA se multiplient. Un véritable écosystème d’appareils intelligents décolle.
L’envers du décor ? Les plateformes centralisées perdent leur avantage. Plus de barrière à l’entrée lorsque tout le monde a accès à une technologie similaire. La course se déplace : il ne s’agit plus de qui possède le meilleur modèle, mais de qui exécute le mieux au niveau de l’application.