Ciao,
i modelli rilasciati di DeepSeek sono eccezionali. E questo è un fatto.
Tutto il resto in questo momento è un po' caotico. In questo spazio le news di 24 ore
sono come mesi in altri campi.
Il mio feeling è che "Open" (leggi: "Closed")-AI si sia un po' fermata già da tempo
e la concorrenza ormai abbia tranquillamente raggiunto (se non superato) la loro
performance. Questo già prima dell'apparizione di DeepSeek sulla scena. Avranno contributo
anche i litigi interni (vedi l'affaire Altmann, mi sembra fine 2023 - scrivo a memoria).
(E a mio avviso li sta bene.)
Detto questo, DeepSeek è entrato a gamba tesa, non solo con modelli eccezionali, ma
anche con ottimizzazioni che rendono inference e sopratutto training più efficienti.
Almeno per quanto riguarda l'inference, questo è verificabile: infatti i modelli (i pesi)
di DeepSeek allo stato attuale hanno licenze Open Source e possono essere eseguiti in locale.
Inoltre è supportato dal fatto che DeepSeek stesso effettivamente offre i modelli as a
service a prezzi stracciati rispetto ai costi di altri.
Per quanto riguarda il training, anche se non confermato da terzi, io tendo a credere
a DeepSeek sul fatto che anche li abbiano speso tipo due ordini di grandezza meno soldi
rispetto agli altri grazie alle loro ottimizzazioni.
Ora, aggiungi il quadro geopolitico del momento, anche tralasciano le guerre in corso,
con DeepSeek che è cinese, gli USA che sembra abbiano deciso di diventare ufficialmente
un oligarchia, embarghi che non sono serviti a fermare DeepSeek, dazi incrociati annunciati,
lo stock market che si accorge che forse Nvidia non valeva N fantastiliardi, la questione
Taiwan/TSMC...
Insomma. Interesting times.
Bye,
Chris.