Le « Statement on AI Risk » est un message d'avertissement sur un risque
d'extinction de l'humanité, publié par le Center for AI Safety, qui
réunit les signatures de plus de 350 spécialistes en IA, notamment Sam
Altman (PDG et cofondateur d'Open AI), Demis Hassabis (patron de
Deepmind), Dario Amodei (Anthropic), ainsi que Geoffrey Hinton et Yoshua
Bengio, deux chercheurs considérés comme les pères de l'IA moderne
grâce à leurs travaux sur l'apprentissage profond et les réseaux
neuronaux.
Le communiqué est très court :
"Mitigating the risk of extinction from AI should be a global priority
alongside other societal-scale risks such as pandemics and nuclear war."
Trad.
« L'atténuation du risque d'extinction lié à l'IA devrait être une
priorité mondiale, au même titre que d'autres risques sociétaux tels
que les pandémies et les guerres nucléaires. »
https://www.safe.ai/statement-on-ai-risk
Dans un article de préimpression, disponible sur arXiv, Dan Hendrycks,
chercheur américain en apprentissage automatique et directeur du Center
for AI Safety, détaille comment la sélection naturelle peut favoriser
les IA par rapport aux humains :
« En analysant l'environnement qui façonne l'évolution des IA, nous
soutenons que les agents d'IA les plus performants auront probablement des
traits indésirables. Les pressions concurrentielles entre les entreprises
et les militaires donneront naissance à des agents d'IA qui
automatiseront les rôles humains, tromperont les autres et gagneront en
puissance. Si ces agents ont une intelligence qui dépasse celle des
humains, l'humanité pourrait perdre le contrôle de son avenir. »
"Natural Selection Favors AIs over Humans"
https://doi.org/10.48550/arXiv.2303.16200
"AI and Evolution"
https://youtu.be/48h-ySTggE8
--
Слава Україні 🇺🇦