L’intelligence artificielle menace pour l’humanité avertit Stephen Hawking | La Revue du Digital

L’intelligence artificielle menace pour l’humanité avertit Stephen Hawking

Stephen Hawking - 2 - BF

Il faut étudier dès aujourd’hui les conséquences de l’intelligence artificielle afin de se prémunir des dangers pour l’humanité. C’est ce que demande le physicien Stephen Hawking, célèbre pour ses travaux sur les trous noirs, dans une tribune co-signée avec plusieurs autres scientifiques dans le quotidien britannique The Independant, en date du 4 Mai. Une tribune qui est concomitante avec la sortie du dernier film de Johnny Depp, “Transcendence”, où l’acteur devient plus machine qu’être humain.

Google, IBM, Apple et Microsoft en tête

Stephen Hawking fait référence aux récents progrès apportés par les leaders de l’informatique comme les voitures sans chauffeur popularisées par Google, l’ordinateur IBM Watson qui a remporté le jeu Jeopardy, les assistants numériques personnels comme Siri d’Apple, Google Now (dans sa dernière version il y a deux jours, Google Now retrouve l’endroit où l’on a garé sa voiture), et Cortana (l’assistant personnel développé par Microsoft).

Il estime que ce ne sont que les symptômes d’une course aux armements informatiques alimentée par des investissements sans précédent et en s’appuyant sur un fondement théorique de plus en plus mature. Sans parler des armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine. « Ces réalisations ne sont encore rien probablement par rapport à ce que les prochaines décennies vont apporter » écrit-il.

La pire et la meilleure des choses

«Réussir à créer une intelligence artificielle serait le plus grand événement dans l’histoire de l’homme. Mais ce pourrait aussi être le dernier » prévient-il. Côté positif, l’intelligence artificielle pourrait éradiquer la guerre, la maladie et la pauvreté. Mais côté négatif, « on peut imaginer qu’une telle technologie déjoue les marchés financiers, dépasse les chercheurs, manipule nos dirigeants, et développe des armes dont on ne comprenne même pas le fonctionnement. »

En conclusion de la tribune, « l’impact à court terme de l’intelligence artificielle dépend de qui la contrôle, et à long terme, de savoir si elle peut être tout simplement contrôlée » signe le chercheur qui regrette que trop peu de recherches soient menées sur le sujet.

Les co-signataires de l’article :

Stephen Hawking, directeur de recherche au Department of Applied Mathematics and Theoretical Physics à Cambridge, Stuart Russell professeur d’informatique à University of California, Berkeley, Max Tegmark professeur de physique au Massachusetts Institute of Technology (MIT), Frank Wilczek professeur de physique au MIT et prix Nobel.

Ce texte a été lu 26221 fois !

Partager cet article

4 réactions sur “L’intelligence artificielle menace pour l’humanité avertit Stephen Hawking

  1. Dessort

    Je suis d’accord sur le risque des “logiciels intelligents” et de notre dépendance vis à vis de ces outils.

    Par contre la crainte d’une “intelligence artificielle” me parait ridicule.
    On n’a pas la moindre idée de comment créer une intelligence artificielle, et pas un seul résultat allant dans ce sens n’a été obtenu. Je trouve ça un peu prétentieux de commencer à vouloir réfléchir aux conséquences.
    C’est comme si je vous proposait de réfléchir aux conséquences du voyage temporel maintenant avant qu’il ne soit trop tard. Ca vous parait absurde car on a même pas de modèle viable nous permettant d’imaginer un voyage temporel.

    Ici c’est pareil, on a des programmes qui mimiquent le comportement humain, mais personne ne sait faire de programme doté de conscience, car il n’y a pas encore de modèle, de théorie. Ce n’est pas qu’une question de moyens, c’est aussi une question de connaissances.

    Je ne suis pas contre le fait de garder espoir qu’il y ait moyen d’y arriver un jour, mais ne mettons pas la charrue avant les bœufs.

    Répondre

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>