Wikistrike

Wikistrike

Rien ni personne n'est supérieur à la vérité

Le physicien Stephen Hawking met en garde contre les risques de l’intelligence artificielle

Publié par wikistrike.com sur 15 Mai 2014, 07:22am

Catégories : #Science - technologie - web - recherche

Le physicien Stephen Hawking met en garde contre les risques de l’intelligence artificielle

De la science-fiction à la réalité ?

Le physicien Stephen Hawking met en garde contre les risques de l’intelligence artificielle.

 

Présente dans la science-fiction, l’intelligence artificielle pourrait menacer la science et la société elle-même. C’est le message lancé jeudi 1er mai par le célèbre physicien Stephen Hawking, dans une tribune publiée par The Independent (en anglais).

Et si les hommes étaient un jour dépassés par l’intelligence des machines ? « Prend-on assez au sérieux l’intelligence artificielle ? » se demande Stephen Hawking. Spécialiste des trous noirs, le chercheur prend l’exemple des voitures sans chauffeurs de Google, de l’assistant numérique Siri d’Apple ou encore de l’ordinateur d’IBM qui a remporté le célèbre jeu Jeopardy.

« Réussir à créer une intelligence artificielle serait le plus grand événementdans l’histoire de l’homme. Mais ce pourrait aussi être le dernier », prévient Stephen Hawking. « L’impact à court terme de l’intelligence artificielle dépend de qui la contrôle. Et, à long terme, de savoir si elle peut être tout simplement contrôlée », écrit le scientifique. « On peut imaginer que telle technologie déjoue les marchés financiers, dépasse les chercheurs, manipule nos dirigeants et développe des armes dont on ne pourra pas comprendre le fonctionnement », ajoute-t-il

Il est impossible de prédire le comportement de ces intelligences surhumaines avec qui nous devrons un jour partager la planète. Mais les théories ne manquent pas. Peut-être allons-nous fusionner avec ces machines et devenir des cyborgs surperintelligents utilisant des ordinateurs pour augmenter nos capacités. Peut-être que l’intelligence artificielle nous permettra de prolonger notre vie indéfiniment. Peut-être que nous deviendrons de purs esprits et vivront à l’intérieur de ces machines. Peut-être les ordinateurs se retourneront contre leurs créateurs et annihileront l’humanité.

Nous appelons le franchissement de cette ligne IA par la singularité !

Qu’est-ce que la Singularité ? A l’origine c’est un phénomène mathématique, souvent utilisé en physique théorique. C’est le moment ou la description d’un objet cesse d’être possible parce qu’une ou plusieurs des variables qui le décrivent deviennent infinies (c’est ce qui se passe lorsqu’on divise par zéro). La “Singularité technologique” popularisée par Vinge postule que l’évolution exponentielle de la technologie atteindra bientôt un point au-delà duquel il ne nous sera plus possible de l’appréhender. En extrapolant la loi de Moore (qui implique un doublement de la puissance de calcul tous les 18 mois), il apparait qu’en 2029, l’homme aura créé une intelligence supérieure à la sienne mettant ainsi fin à l’ère humaine.

La Singularité n’est donc pas synonyme du “progrès”, aussi fulgurant soit-il. C’est un évènement, une rupture, une transition de phase, quelque chose qui survient en un temps assez court (restant à définir ce qu’on appelle “assez court” sur le plan historique : quelques mois, quelques années ou quelques siècles ?). Sous l’impulsion de cette accélération, de cette transformation brutale et inattendue, le monde va changer de nature. Grosso modo, on peut diviser les visions de la Singularité en deux grandes tendances, d’ailleurs non contradictoires :

la première postule que c’est l’accélération du progrès technologique qui nous y précipitera.

La seconde intègre bien sûr ce facteur, mais insiste sur un point fondamental : ce qui provoque la Singularité, c’est la croissance exponentielle d’une variable spécifique : l’intelligence.

La fameuse “loi de Moore” qui prédit l’accélération de la vitesse des processeurs ne serait pas un cas spécialisé applicable seulement à undomaine local : elle constituerait un modèle de l’évolution humaine dans son ensemble. Ainsi, pour Ray Kurzweil, l’un des principaux supporteurs de la Singularité (son livre, traduit en français sous le titre Humanité 2.0 s’appelait originellement The Singularity is near – la Singularité est proche) : “Le paradigme de la loi de Moore – le progrès s’accroissant de façon exponentielle – s’avèrera non seulement indéfiniment vrai dans le domaine des circuits logiques, mais s’appliquera à une multitude d’autres technologies. Cela amènera une singularité qui nous permettra de télécharger notre conscience dans les machines et, de fait, de vivre indéfiniment. La Singularité se produira dans environ 15 ans”. Selon sa “loi des retours des accélérés“, “nous ne ferons pas l’expérience de 100 ans de progrès au cours du XXIe siècle. Ce sera plutôt 20 000 ans de progrès (en comparaison avec le rythme actuel)”.

Source : 2012un-nouveau-paradigme

Commenter cet article

Archives

Articles récents