De quoi discutent Larry Page, Elon Musk et Yann Le Cun ? (Beneficial AI 2017)

De quoi discutent Larry Page, Elon Musk et Yann Le Cun ? (Beneficial AI 2017), article, Vincent Guérin, IAtranshumanisme. com, 9 avril 2017

« Technology is giving life the potential to flourish like never before…or to self-destruct. Let’s make a difference ! »

Future of Life Institute

En janvier dernier s’est tenu à Asilomar (Californie) le second colloque organisé par Future of life Institute (FLI) dont l’objectif était d’anticiper l’évolution de l’intelligence artificielle afin qu’elle soit bénéfique pour l’humanité.

Cette association a été créée en 2014 par Jaan Tallinn, informaticien et cofondateur de Skype et Kazaa, Meia Chita-Tegmark (Université de Boston), Vicktorya Krakovna (DeepMind) et les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT).

On trouve au sein du comité scientifique Stephen Hawking (Cambridge), Erik Brynjolfsson (MIT), Martin Rees (Cambridge), Nick Boström (Oxford), Elon Musk (Tesla, Space X), etc1. En 2015, ce dernier a fait don au FLI de 10 millions de dollars.

L’objectif de cette institution est d’anticiper les risques existentiels (qui menacent l’humanité toute entière) anthropiques (du fait de l’homme) comme le réchauffement climatique global, l’arsenal nucléaire2, les biotechnologies mais aussi et surtout ceux liées à l’IA3. en savoir plus

Notes :

[1] https://futureoflife.org/team/

[2]  Une lettre ouverte a été communiquée à l’ONU qui travaille au bannissement des armes nucléaires.

[3] Depuis quelques années, de nombreuses institutions se sont développées pour anticiper les risques existentiels naturels et anthropogènes. Parmi ces derniers l’intelligence artificielle est souvent mise en avant. Ainsi, outre le FLI, on citera notamment Machine intelligence research institute (MIRI/Berkeley), Future  of humanity  institute  (FHI/Oxford), Centre for the study of existential risk (CSER/Cambridge), Open AI (Elon Musk), One hundred years study on artificial intelligence (AI100/Stanford), Global catastrophic risk institute (GCRI) et dernièrement Leverhulme centre for the future of intelligence (Cambridge). Sur le Leverhulme centre for the future of intelligence et Center for the study of existential risk on peut lire  « Meet Earth’s guardians, the real-world X-men and women saving us from existential threats », Wired, 12 février 2017 ; sur Future of humanity institute Ross Andersen, « Omens », Aeon, 25 février 2013.