Les collections

Attitudes de l'IA: ce que les experts considèrent comme préoccupant

Attitudes de l'IA: ce que les experts considèrent comme préoccupant


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Comme nous l'avons vu dans Our Brave New World: Pourquoi les progrès de l'IA soulèvent des préoccupations éthiques, il existe quelques domaines dans lesquels l'utilisation de l'IA semble moins qu'avantageuse pour la société. Ils incluent la promulgation de préjugés raciaux dans la reconnaissance faciale et d'autres formules secrètes algorithmiques, ainsi qu'une menace pour les emplois et peut-être même pour la sécurité globale, selon le scénario de cauchemar suggéré par Elon Musk.

Vous pouvez entendre Musk décrire ses préoccupations concernant l'IA dans la vidéo ci-dessous.

Le choc des vues entre Elon Musk et Mark Zuckerberg

En 2017, lorsque Musk a fait connaître son point de vue, il a incité Zuckerberg à exprimer une vision beaucoup plus «optimiste» lors d'une diffusion Facebook Live. En fait, Zuckerberg a accusé que ceux qui sont irresponsables ne sont pas ceux qui poursuivent l'IA mais ceux qui soulignent les dangers. Il a dit:

"Et je pense que les gens qui sont opposés et qui essaient de créer ces scénarios apocalyptiques ... Je ne comprends tout simplement pas. C'est vraiment négatif et à certains égards je pense que c'est assez irresponsable.

"De retour à vous" pourrait résumer la réponse de Musk à la position de Zuckerberg, qu'il a exprimée sur Twitter: "J'en ai parlé à Mark. Sa compréhension du sujet est limitée."

Musk recourt donc à une revendication d'une plus grande expertise pour renforcer son point de vue. En fait, cependant, les points de vue optimiste et pessimiste de l'IA ne sont pas divisés par niveau d'expertise sur le sujet.

Les optimistes de l'IA

Un certain nombre d'experts en IA partagent la vision optimiste de Zuckerberg. Par exemple, Kevin Kelly, co-fondateur de Filaire et auteur de The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. a fait cette déclaration radicale: «Le plus grand avantage de l'arrivée de l'intelligence artificielle est que les IA aideront à définir l'humanité. Nous avons besoin d'IA pour nous dire qui nous sommes. »

Kelly a développé son point de vue dans une interview avec IBM: «Grâce à l'IA, nous allons inventer de nombreux nouveaux types de pensée qui n'existent pas biologiquement et qui ne sont pas comme la pensée humaine.

De l’avis de Kelly, c’est tout à fait positif: «Par conséquent, cette intelligence ne remplace pas la pensée humaine, mais l’augmente.»

Un autre optimiste de l'IA est le futuriste et inventeur Ray Kurzweil, qui a fait la déclaration suivante dans une interview en 2012:

«L'intelligence artificielle atteindra les niveaux humains vers 2029. Poursuivez cela jusqu'à, disons, 2045, nous aurons multiplié par un milliard l'intelligence, l'intelligence humaine-machine biologique de notre civilisation.

Kurzweil l'a expliqué comme l'équivalent de la «singularité» dans la science de la physique, parce que ce serait «un changement profondément perturbateur dans l'histoire de l'humanité». En fin de compte, il envisage que «la pensée humaine deviendra un hybride de pensée biologique et non biologique».

Les pessimistes de l'IA

Il y a aussi des experts qui ne rêvent pas d’une utopie dans laquelle l’IA prend le relais des emplois et de la pensée de l’humanité. Ils considèrent que la possibilité de confier à l'IA la responsabilité des processus est très dangereuse.

Parmi ceux-ci se trouve Yuval Noah Harari, qui a écritHomo Deus: A Brief History of Tomorrow. Dans le livre, le professeur Harari a fait la déclaration suivante:

«Vous voulez savoir comment les cyborgs super intelligents pourraient traiter les humains ordinaires en chair et en os? Mieux vaut commencer par étudier comment les humains traitent leurs cousins ​​animaux moins intelligents. Ce n’est pas une analogie parfaite, bien sûr, mais c’est le meilleur archétype que nous pouvons réellement observer plutôt qu’imaginer. » 

La prise de Harari est à l'opposé des futuristes positifs en imaginant la montée de ce qu'il appelle le «dataïsme». dans lequel les humains cèdent le terrain supérieur à l'intelligence artificielle avancée. C'est un avenir dominé par un «système informatique cosmique» à la fois omniprésent et omniscient et, comme diraient les Borgs, la résistance est vaine.

Le regretté physicien théoricien, cosmologiste et auteur anglais qui était directeur de recherche au Center for Theoretical Cosmology de l'Université de Cambridge, Stephen Hawking, tombe également dans le camp des pessimistes. Comme Harar, il considérait l'expérience humaine dans la poursuite d'objectifs en projetant sur les possibilités de l'IA suivant ses propres dictats sans égard pour l'humanité.

Dans la vidéo suivante, Stephen Hawking propose une vision très pessimiste de l'IA.

Début 2015, lors d'une session de questions / réponses sur Reddit AMA (Ask Me Anything), Hawking s'est vu poser la question suivante d'un enseignant qui voulait savoir comment répondre à certains problèmes d'IA qui surgissent dans ses cours:

Comment représenteriez-vous vos propres croyances auprès de ma classe? Nos points de vue sont-ils conciliables? Pensez-vous que mon habitude de ne pas tenir compte de l '«IA maléfique» de style Terminator est naïve? Et enfin, quelle morale pensez-vous que je devrais renforcer auprès de mes étudiants intéressés par l'IA?

La réponse de Hawking a été la suivante:

Le vrai risque avec l'IA n'est pas la malveillance mais la compétence. Une IA superintelligente sera extrêmement efficace pour atteindre ses objectifs, et si ces objectifs ne sont pas alignés sur les nôtres, nous sommes en difficulté. Vous n'êtes probablement pas un méchant anti-fourmis qui marche sur les fourmis par méchanceté, mais si vous êtes en charge d'un projet d'énergie verte hydroélectrique et qu'il y a une fourmilière dans la région à inonder, tant pis pour les fourmis. Ne mettons pas l’humanité à la place de ces fourmis.

La menace de domination de l'IA est-elle réelle?

Anthony Zador, professeur de neurosciences au Cold Spring Harbor Laboratory, et Yann LeCun, professeur d'informatique à l'Université de New York et scientifique en chef de l'IA chez Facebook, affirment que l'obsession de la domination de l'IA est malavisée. Ils ont expliqué leur point de vue dans un Américain scientifique blog intitulé Don't Fear the Terminator publié le 26 septembre 2019.

Vous pouvez entendre Zador sur AI dans cette vidéo:

LeCunn parle d'autres aspects de l'IA dans cette vidéo:

En réponse à la question: «Pourquoi une IA sensible voudrait-elle conquérir le monde?» ils offrent la réponse simple en deux mots: "Ce ne serait pas le cas."

Peut-être avaient-ils à l’esprit le livre de Harari quand ils ont abordé le rôle de l’intelligence dans la «domination sociale» à travers «l’histoire de l’évolution». Ils ont ensuite expliqué cela en termes d'outil plutôt que de pilote:

«Et en effet, l'intelligence est une adaptation puissante, comme les cornes, les griffes acérées ou la capacité de voler, qui peut faciliter la survie de plusieurs manières. Mais l'intelligence en soi ne génère pas la volonté de domination, pas plus que les cornes.

Les humains utilisent donc leur intelligence pour les aider à survivre. Mais quand il s'agit des formes artificielles d'intelligence, il n'y a pas un tel «instinct de survie», et c'est pourquoi l'IA n'aurait aucune raison de prendre le contrôle des humains qui la programment.

«Dans l'IA, l'intelligence et la survie sont découplées, et donc l'intelligence peut servir les objectifs que nous nous fixons.»

La préoccupation sans fondement des intrigues de type science-fiction comme celle deAvengers: l'ère d'Ultron, ou ce que Zador et LeCun (faisant peut-être référence à la question posée par Hawking) appellent «le scénario Terminator» est en fait contre-productif car il «nous distrait simplement des risques très réels de l'IA».

Les risques de l'IA dont nous devrions nous inquiéter

Zador et LeCun continuent de distinguer leur position de celle des optimistes de l'IA. Musk a en fait bien compris dans son livre sur l'IA devenant «une arme», ainsi que sur les autres menaces qu'elle représente pour l'humanité, y compris celle de la perte d'emplois.

«Alors que l'IA améliorera la productivité, créera de nouveaux emplois et fera croître l'économie, les travailleurs devront se recycler pour les nouveaux emplois, et certains seront inévitablement laissés pour compte. Comme pour de nombreuses révolutions technologiques, l'IA peut conduire à de nouvelles augmentations de la richesse et des inégalités de revenus à moins que de nouvelles politiques budgétaires ne soient mises en place.

En plus des risques qui peuvent déjà être anticipés, il y a ceux qui sont des «risques imprévus associés à toute nouvelle technologie - les« inconnues inconnues ».»

Ce n'est pas parce qu'ils n'ont pas été imaginés dans une intrigue de science-fiction qu'ils ne sont pas préoccupants, affirment-ils. Ils soulignent que ce sont les humains qui seront responsables des résultats de l'IA élargie, qui ne peut développer aucune agence ou ambition indépendante.

Tout en insistant sur la responsabilité humaine, Zador et LeCun ne décrivent aucun plan particulier pour éviter les risques - connus et inconnus - des nouvelles technologies.

Planification proactive pour l'IA

Que la solution soit une réglementation gouvernementale, comme Musk l'a suggéré, ou une sorte de norme de l'industrie, il semble qu'une sorte de planification consciente des dangers potentiels soit de mise. Un certain nombre d'experts l'ont suggéré.

Le professeur Klaus Schwab, fondateur du Forum économique mondial qui a inventé le terme de «quatrième révolution industrielle», a publié ses réflexions sur sa direction actuelle en 2016.

Comme les futuristes positifs, il a envisagé que l'avenir fusionnera «les mondes physique, numérique et biologique de manière à transformer fondamentalement l'humanité». Mais il n'a pas pris pour acquis que tout irait pour le mieux », exhortant les gens à planifier à l'avance en étant conscients à la fois des« risques et des opportunités qui se présentent en cours de route ».

Même avec des voitures sans conducteur à l’horizon, les gens sont toujours aux commandes quand il s’agit de planifier ce que l’IA doit faire. «L'IA n'a rien d'artificiel», a déclaré Fei-Fei Li, un expert dans le domaine. "Il est inspiré par les gens, il est créé par les gens et, surtout, il a un impact sur les gens."


Voir la vidéo: Pour Ridley Scott, si une intelligence artificielle découvre les émotions, on est foutus (Mai 2022).