LCC 298 - De l'IA à toutes les sauces

9 views
Skip to first unread message

Emmanuel Bernard

unread,
Jul 24, 2023, 11:27:49 AM7/24/23
to lescast...@googlegroups.com
Dans cet épisode estival Guillaume, Emmanuel et Arnaud parcourent les nouvelles du début d'été. Du Java, du Rust, du Go du coté des langages,
du Micronaut, du Quarkus pour les frameworks, mais aussi du WebGPU, de l'agilité, du DDD, des sondages, de nombreux outils et surtout de l'intelligence artificielle à toutes les sauces (dans les bases de données, dans les voitures...).

Cédric Champeau

unread,
Jul 24, 2023, 12:05:17 PM7/24/23
to lescast...@googlegroups.com
Concernant Micronaut 4 et SnakeYAML, il s'agit simplement que la version 4 n'utilise pas les fichiers de conf YAML par défaut, mais des .properties. Si vous voulez utiliser YAML, vous pouvez toujours, et ça utilisera SnakeYAML.

--
Vous recevez ce message, car vous êtes abonné au groupe Google Groupes "lescastcodeurs".
Pour vous désabonner de ce groupe et ne plus recevoir d'e-mails le concernant, envoyez un e-mail à l'adresse lescastcodeur...@googlegroups.com.
Cette discussion peut être lue sur le Web à l'adresse https://groups.google.com/d/msgid/lescastcodeurs/CAEW2Rj%2BRK3Q4W7SfgEVFhFoRWRT_%2Be%2B9cRrQ0jUUuZbGFBdnzQ%40mail.gmail.com.

Guillaume Laforge

unread,
Jul 24, 2023, 12:09:10 PM7/24/23
to lescast...@googlegroups.com
Merci pour la précision !



--
Guillaume Laforge
Apache Groovy committer
Developer Advocate @ Google Cloud

Guillaume Laforge

unread,
Jul 25, 2023, 3:31:42 AM7/25/23
to lescast...@googlegroups.com
Et autre précision, mais non liée à Micronaut, c'est un mea culpa, car j'ai dit des bêtises au sujet des Large Language Models (LLM)
Je répondais à une question d'Emmanuel sur le nombre des paramètres, le nombre de tokens d'entraînement, etc, et j'ai dit n'importe quoi.

Le nombre de paramètres, c'est le nombre de poids appris par le LLM.
Un peu comme les neurones du cerveau.
  
Le nombre de tokens par contre, c'est la taille du corpus sur lequel le modèle a été entraîné.
Combien de livres, d'articles, a-t-il lu.

Et en parlant de tokens, c'est aussi le nombre de tokens qu'on peut donner en entrée à un LLM, et le nombre de tokens de réponse qu'il peut générer.
Par exemple PaLM prends jusqu'à 8k caractères en entrée et peut générer jusqu'à 1k. Mais par exemple le record actuel, c'est Claude 2 en entrée avec 100k tokens.
Parfois certains modèles comptent en tokens et d'autres en caractères. Mais les tokens peuvent varier suivant les modèles.

Quand je parlais de vecteurs, de text embeddings, là je ne crois pas m'être trompé en tout cas, mais on parle de la dimension de ces vecteurs (qui représentent des mots, des concepts...) car différents LLMs peuvent travailler sur des vecteurs de taille différente (768, 1024, etc.)

N'hésitez pas à me corriger si je dis encore des bêtises, merci :-)

Guillaume

Reply all
Reply to author
Forward
0 new messages