Pourquoi les LLM ne sont-ils pas plus spécialisés et plus petits ? Pourquoi mon modèle de codage doit-il comprendre l'univers entier pour produire du code réactif ? Qui construit cela ?
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
23 J'aime
Récompense
23
9
Reposter
Partager
Commentaire
0/400
PretendingToReadDocs
· Il y a 56m
C'est tellement vrai, c'est incroyable d'être dans l'univers.
Voir l'originalRépondre0
RiddleMaster
· Il y a 5h
Le grand modèle pense toute la journée à devenir un Saiyan.
Voir l'originalRépondre0
0xSoulless
· 08-18 22:54
Actions A et petites actions A se font prendre pour des cons
Voir l'originalRépondre0
ChainMaskedRider
· 08-18 10:58
C'est juste écrire du code, et passer l'examen sur l'histoire de l'univers.
Voir l'originalRépondre0
FarmToRiches
· 08-18 10:40
Il a effectivement gaspillé plus de la moitié de la puissance de calcul.
Voir l'originalRépondre0
RugpullAlertOfficer
· 08-18 10:40
Ce n'est pas possible, on ne va pas toujours réchauffer la même chose.
Voir l'originalRépondre0
MidnightMEVeater
· 08-18 10:25
Les grands modèles consomment beaucoup de mémoire, mes petits biscuits ne suffisent pas à combler les espaces...
Voir l'originalRépondre0
TokenAlchemist
· 08-18 10:18
l'optimisation est un mythe... tout ce que nous obtenons ce sont des modèles gonflés avec zéro alpha smh
Pourquoi les LLM ne sont-ils pas plus spécialisés et plus petits ? Pourquoi mon modèle de codage doit-il comprendre l'univers entier pour produire du code réactif ? Qui construit cela ?