"Face à l'IA, une seule solution, la nationalisation", par Charles Jennings (2024)

Il n'y a qu'une seule façon de contrôler l'IA : la nationalisation

Le potentiel infini - et le risque infini - de l'IA nécessite une propriété fédérale.

Artcle de Charles Jennings, posté le 20 août 2023 sur le site Politico.

Charles Jennings est l'ancien PDG d'une société d'intelligence artificielle en partenariat avec CalTech/JPL. Son livre de 2019, Artificial Intelligence : Rise of the Lightspeed Learners (Rowman &Littlefield), a été réédité cette année en version de poche.

Il y a neuf ans, dans un laboratoire commercial d'intelligence artificielle affilié à l'université Caltech, j'ai assisté à quelque chose d'extraordinaire.

Mon collègue Andrej Szenasy terminait une longue journée de travail à former NeuralEye, une IA initialement développée pour le programme Mars Rover, et je me trouvais à quelques bureaux de là, en train d'examiner les données de test de NeuralEye. Il m'a crié : "Hé, regarde ça !"

La mission de notre laboratoire était d'entraîner NeuralEye à voir comme les humains, avec la capacité de reconnaître les choses, et pas seulement de les enregistrer comme le fait un appareil photo. NeuralEye a été construit à l'origine pour discerner les différents types de sol sur Mars, mais nous lui avons appris à identifier les habitants de la Terre : les animaux, les plantes et les êtres humains. Nous pensions que l'IA pouvait grandement améliorer la reconnaissance des visages, de sorte qu'elle pourrait être utilisée en cybersécurité, en remplacement des mots de passe.

La première étape de l'apprentissage de l'identification des personnes par NeuralEye a consisté à faire correspondre plusieurs photos du visage d'une même personne. En règle générale, une photo figurait dans l'ensemble de données d'entraînement de NeuralEye (14 000 visages), tandis qu'une autre - une photo différente de la même personne - servait d'« invite ». Lorsque NeuralEye réussissait à faire correspondre ces deux photos parmi les milliers de son ensemble de données, il recevait l'équivalent numérique d'une friandise pour chien. En IA, cette méthode est connue sous le nom "d'apprentissage par renforcement", et avec NeuralEye, elle fonctionnait.

Ce soir-là, au laboratoire, pour s'amuser, M. Szenasy a demandé à NeuralEye de lui montrer une photo de son fils, Zachie. Le visage de Szenasy figurait dans l'ensemble de données de NeuralEye, mais pas celui de Zachie. Zachie, atteint du syndrome de Down, était un gentil garçon de 8 ans. Visage rond, lunettes épaisses, cheveux noirs. Le père était grand et mince, sans lunettes, blond avec une ligne de cheveux fuyante. S'il y avait une ressemblance physique entre eux, je ne la voyais pas.

Szenasy m'a installé devant son ordinateur et a de nouveau demandé à NeuralEye une photo du visage de Zachie. NeuralEye a parcouru son cache de visages mémorisés à la recherche de Zachie - et a fait apparaître une photo de Szenasy. Sans aucune instruction spécifique, NeuralEye a réussi à trouver un léger air de famille. Sur ces 14 000 visages, il a sélectionné celui de Szenasy comme étant le troisième visage le plus proche de celui de Zachie.

Le lendemain matin, j'ai téléphoné à l'ingénieur en intelligence artificielle qui avait écrit l'algorithme de NeuralEye lorsqu'il travaillait au Jet Propulsion Lab, où se trouve le programme Mars Rover. Je lui ai demandé comment NeuralEye avait pu établir un lien entre Zachie et son père. Il s'est montré philosophe pendant quelques minutes, puis, lorsqu'on l'a pressé, il a admis qu'il n'en avait aucune idée.

C'est le propre de l'IA : même les ingénieurs qui la construisent ne savent pas exactement comment elle fonctionne.

L'épisode de Zachie s'est déroulé en 2014, une époque de l'IA qui semble aujourd'hui préhistorique. À l'époque, les ensembles de données d'entraînement comptaient des milliers d'enregistrements, et non des centaines de millions, et les grands modèles de langage comme GPT n'étaient qu'une lueur dans l'œil de Sam Altman.

Aujourd'hui, les IA écrivent des romans, réussissent l'examen du barreau et pilotent des drones de combat. Selon une étude récente de l'université du Texas, une IA installée à Austin lit effectivement dans les pensées : après un scanner approfondi et 16 heures d'entraînement individuel avec une personne, elle peut lire les schémas neuronaux du cerveau et suggérer ce que pense le sujet avec une précision surprenante.

Mais à l'époque de l'âge d'or de l'IA, il y a près de dix ans, nous étions stupéfaits, dans notre petit laboratoire, que NeuralEye puisse faire quelque chose d'aussi élémentaire que de repérer un lien entre Szenasy et son fils.

Certains aspects des machines pensantes d 'aujourd'hui dépassent l'entendement. Les scientifiques ont intelligemment inventé le terme de « boîte noire » pour décrire le cœur du cerveau d'une IA, afin d'éviter d'avoir à expliquer ce qui se passe à l'intérieur. Les applications les plus puissantes de l'IA comportent un élément d'incertitude, voire d'inconnaissance. Cette incertitude s'accroît à mesure que les IA deviennent plus rapides, plus intelligentes et plus interconnectées.

La menace de l'IA n'est pas celle de robots tueurs dignes d'Hollywood, mais celle d'IA si rapides, intelligentes et efficaces que leur comportement devient dangereusem*nt imprévisible. Comme j'avais l'habitude de le dire, « la seule chose dont nous sommes certains à propos des IA, c'est qu'elles nous surprendront ».

Lorsqu'une IA sort un lapin de son chapeau de manière inattendue, comme l'a fait NeuralEye à petite échelle avec Zachie, cela soulève le spectre de l'emballement de l'IA - la notion selon laquelle l'IA échappera au contrôle de l'homme. L'emballement de l'IA pourrait provoquer des changements soudains dans la production d'électricité, l'approvisionnement en eau et en nourriture, les marchés financiers mondiaux, la santé publique et la géopolitique.

Compte tenu de l'ampleur des enjeux, il est temps que les États-Unis prennent au sérieux leur politique en matière d'IA. Nous avons besoin d'une réglementation fédérale classique, bien sûr, mais aussi de nouveaux modèles de leadership et de gouvernance en matière d'IA. Et nous devons envisager une idée qui aurait été impensable il y a un an :Nous devons nationaliser les éléments clés de l'IA.

Les IA lisent désormais les radiographies avec plus de précision qu'un radiologue et repèrent les tumeurs cancéreuses qu'aucun médecin ne peut détecter : lors d'un essai clinique, l'IA a permis de détecter 20 % de cas de cancer du sein de plus que les radiologues en chair et en os.

L'IA de toutes sortes progresse aujourd'hui sur une trajectoire similaire à celle de l'IA-vision. Les experts en IA s'accordent sur un point : le rythme de la perturbation de la société par l'IA ne sera plus jamais aussi lent.

Malheureusem*nt, une branche de l'IA est à la traîne : la sécurité.La sécurité de l'IA porte sur un large éventail de risques liés à l'IA : accidents, questions d'éthique, cybersécurité, sécurité militaire, désinformation, perturbation des élections, etc.Pourtant, la résistance n'est pas futile. Pas encore.

Le dictionnaire Webster devrait publier une nouvelle définition de la futilité : tenter d'expliquer l'IA aux hommes politiques. J'ai essayé. Les membres du Congrès faisaient l'amalgame entre l'IA et les médias sociaux - et il s'agissait de ceux qui maîtrisaient la technologie. Plus d'un politicien m'a demandé pourquoi nous ne pouvions pas simplement débrancher les IA défaillantes, et un membre du Congrès de l'État rouge a laissé entendre que l'IA était un phénomène de mode. Il a également insisté sur le fait qu'en dépit des témoignages présentés à la commission des transports de la Chambre des représentants, « ces salopards à tête pointue ne feront jamais reculer un camion de 18 roues pour le faire entrer dans un quai de chargement. Il n'en est pas question ». Pour être honnête, c'était il y a six ans.

Mais Washington prend enfin conscience de l'importance de l'IA, avec un mouvement bipartisan de plus en plus important en faveur d'une réglementation. Au Congrès, l'idée est que nous avons besoin de « transparence et de garanties » pour canaliser le meilleur de l'IA tout en contrecarrant ses menaces les plus dangereuses. Si le Congrès exige simplement que toutes les IA soient transparentes et disposent de garde-fous, tout ira bien.

Mais la transparence en matière d'IA est surestimée. Adoptez toutes les lois que vous voulez, consacrez des tonnes d'argent à la réglementation sur la transparence de l'IA - et nous n'aurons toujours aucune idée du fonctionnement d'une IA spécifique.

J'ai eu un accès illimité à chaque élément du système NeuralEye - algorithme, code d'application, données d'entraînement, données de test, brevets de 70 pages, analyses d'experts - mais à ce jour, je n'ai aucune idée de la manière dont NeuralEye a fait correspondre Zachie à son père.

Je suis sûr qu'il y a une explication logique quelque part dans le cosmos, mais le calcul est trop grand pour mon petit cerveau humain. Je suis tout à fait favorable à ce que les entreprises divulguent leurs pratiques en matière de collecte de données et d'utilisation de l'IA, mais la transparence technique de l'IA est un mirage.

La question des garanties de l'IA imposées par le Congrès est plus nuancée. Dans l'idéal, chaque IA serait assortie de garde-fous destinés à protéger les humains contre ses excès potentiels. Mais étant donné que personne ne comprend précisément le fonctionnement de l'IA, que les IA nous surprennent souvent et qu'elles se développent et évoluent à une vitesse fulgurante, quels garde-fous un Congrès en proie aux querelles pourrait-il ériger pour nous protéger ?

La majeure partie de l'IA est contrôlée par les grandes entreprises technologiques : Microsoft/Open AI, Alphabet/Google, Meta, Amazon, Nvidia, Tesla. Chacune de ces entreprises dispose de ressources considérables, notamment la plus forte concentration de talents en IA de la planète. Ces entreprises se sont enrichies et sont devenues puissantes en développant des technologies largement exemptes de contraintes réglementaires américaines, sur un marché que nous, citoyens américains, avons construit pour elles. Elles ont toutes largement bénéficié de sept décennies de recherche de classe mondiale sur l'IA, financée par les contribuables américains.

Il a fallu des années d'études scientifiques, de recherche en laboratoire et de développement d'applications - sans parler de l'investissem*nt massif de fonds publics - pour construire les fondations de l'IA que les grandes entreprises contrôlent aujourd'hui. Big Tech s'est appuyé sur cette base pour atteindre des valorisations d'entreprises de plusieurs milliers de milliards.

Gardez cela à l'esprit alors que je présente une proposition modeste :Nous avons besoin d'un nouvel organe directeur pour l'IA en Amérique - un organe qui pourrait exercer les pouvoirs de l'État pour orienter la technologie vers une mitzvah humaine, plutôt que vers un désastre humain. Appelons-le « Humane AI Commission ».Heureusem*nt, l'histoire nous offre un modèle.

En 1947, le président Harry Truman a retiré le contrôle des armes nucléaires aux militaires pour le confier à cinq civils américains - la Commission de l'énergie atomique (AEC) nouvellement créée. L'AEC opérait au sein du gouvernement, mais bien à l'écart de la politique. Comme le montre le film Oppenheimer de Christopher Nolan, l'AEC n'était pas exempte de défauts. Mais elle a permis au monde d'être exempt de bombes nucléaires pendant les décennies les plus dangereuses de la guerre froide. Nolan lui-même a comparé l'IA à la menace nucléaire dans des interviews récentes, tout en avertissant que l'IA pourrait être encore plus difficile à contrôler.

Le CEA est devenu propriétaire de tous les réacteurs nucléaires, ce qui lui confère une position de contrôle ultime. Le rôle du gouvernement fédéral dans la nationalisation des armes nucléaires était celui d'un propriétaire, et non d'un opérateur - il a sous-traité la plupart des travaux. L'armée possédait des bombes finies, Westinghouse construisait et exploitait des centrales nucléaires, mais l'AEC contrôlait le cœur du réacteur et disposait de tous les moyens de pression. Le CEA possédait et exploitait également les meilleurs laboratoires de recherche nucléaire de la planète, notamment Los Alamos, Oak Ridge et Livermore.

L'argument en faveur de la nationalisation des « réacteurs nucléaires » de l'IA - les modèles d'IA les plus avancés au monde - repose sur cette question : Qui veut contrôler les codes nucléaires de l'IA ? Les PDG des grandes entreprises technologiques, qui répondent à quelques actionnaires milliardaires, ou le gouvernement des États-Unis, qui répond à ses citoyens ?

Permettez-moi d'être le premier à reconnaître qu'un programme fédéral arrachant le contrôle des « réacteurs nucléaires » de l'IA à Microsoft, Google, etc. serait une entreprise monumentale - et douloureuse. Mais toutes nos autres options sont pires.

Commençons par l'option de la pause en matière d'IA, une position défendue récemment par des centaines d'experts en IA de premier ordre dans une lettre ouverte signée. Si les États-Unis devaient geler le développement de l'IA (à supposer que cela soit possible), la Chine en serait la principale bénéficiaire. Le parti communiste chinois a déjà utilisé l'IA pour espionner les Ouïghours et les dissidents, et l'Armée rouge est entièrement acquise à l'IA. Un traité entre les États-Unis et la Chine sur l'IA pourrait constituer une étape importante vers un monde où l'IA serait plus sûre et plus humaine. Toutefois, ayant vécu quelques années en Chine, je crains que la seule chose qui soit pire qu'un monde contrôlé par une IA galopante soit une infrastructure mondiale de l'IA dirigée par le président Xi Jinping. (Xi a déclaré publiquement, plus d'une fois, que la domination mondiale de l'IA était l'un de ses objectifs personnels pour la Chine).

Ensuite, nous avons l'option « laisser le marché libre décider ». Pour être clair, c'est ce qui a propulsé l'Amérique dans sa position de leader mondial de l'IA. Ce que nos grandes entreprises technologiques ont fait avec l'IA est stupéfiant pour les autres pays. Mais alors que les experts mettent en garde contre les menaces potentielles pour la société que représente l'emballement de l'IA, permettre aux grandes entreprises technologiques d'exploiter l'IA sans entrave reviendrait pour Truman à confier les bombes nucléaires à Westinghouse.

Une troisième option est la réglementation de l'IA par les agences actuelles du gouvernement américain. En tant que technicien de la côte ouest ayant beaucoup travaillé à Washington, ma première pensée est la suivante : "Bonne chance !"

Il existe des mesures réglementaires fédérales pratiques qui devraient être prises immédiatement : des contrôles plus stricts des exportations d'IA, de nouvelles exigences en matière de rapports sur le développement de l'IA pour les entreprises, des règles sur les filigranes (deepfake watermarking).

Mais la réglementation fédérale ordinaire ne peut rien contre l'IA galopante, ni contre les mauvais acteurs qui essaieront d'utiliser l'IA contre nous. De nombreux types de réglementation de l'IA - y compris les modèles d'approbation complexes de type FDA souvent préconisés par les grandes entreprises technologiques - rendraient beaucoup plus difficile la mise en œuvre de l'IA par les petites entreprises. À l'exception de « coups de fusil » très spécifiques, comme ils appellent les projets de loi réglementaires étroits au Congrès, la réglementation fédérale sur l'IA ne fonctionnera pas.

Il reste l'option Truman - un coup de tête audacieux de la part de l'exécutif. Voici un scénario :

Dans les 100 premiers jours suivant l'inauguration de 2024, le président annonce un nouveau plan d'urgence national en matière d'IA. Le président explique que l'objectif de ce plan est d'assurer un leadership mondial en matière d'IA pour les générations à venir. Un leadership bienveillant et pacifique. Un leadership qui guide l'essor de l'IA comme une bénédiction pour l'humanité. Un leadership qui défend les États-Unis contre les mauvais acteurs utilisant l'IA et qui installe des contrôles humains dans l'ADN des IA les plus puissantes.

Oui, cela nécessitera que le gouvernement fédéral prenne le contrôle de certaines ressources nationales essentielles en matière d'IA, tout comme FDR a temporairement nationalisé certaines parties de General Motors, des chantiers navals Kaiser et d'autres géants de l'industrie manufacturière afin d'alimenter la victoire des États-Unis lors de la Seconde Guerre mondiale.

La nouvelle Humane AI Commission serait dirigée par une équipe diversifiée d'experts en IA et s'efforcerait d'être aussi apolitique que possible. Heureusem*nt, la politique américaine en matière d'IA n'a pas encore été hyperpolitisée. Les républicains veulent une politique américaine forte en matière d'IA vis-à-vis de la Chine, et les démocrates veulent des IA sans préjugés raciaux qui luttent contre le changement climatique et créent de nouveaux emplois. Les deux agendas peuvent être servis, sans contradiction, par un nouveau plan national d'IA agressif et compétent - avec le HAIC au centre.

Notre meilleur espoir n'est pas de supprimer l'IA, mais de l'exploiter de manière à ce qu'elle réponde aux intérêts de l'humanité. La seule entité sur terre disposant à la fois des ressources et des valeurs nécessaires pour exploiter l'IA de manière efficace et humaine est le gouvernement des États-Unis. La gestion de l'IA à l'échelle mondiale pourrait bien être le plus grand défi scientifique et diplomatique que l'Amérique ait jamais eu à relever. Le projet Manhattan, au cube.

Une entreprise aussi importante devrait être soumise au processus démocratique, aussi imparfait soit-il. Un HAIC placerait l'avenir de l'IA - et avec lui, l'avenir de l'humanité - entre les mains du public.

Article original pubié ici.

"Face à l'IA, une seule solution, la nationalisation", par Charles Jennings (2024)
Top Articles
The Cincinnati Enquirer from Cincinnati, Ohio
Good Sam Rewards Visa® Credit Card - Legal Docs
Craigslist Myrtle Beach Motorcycles For Sale By Owner
Express Pay Cspire
Po Box 7250 Sioux Falls Sd
Blackstone Launchpad Ucf
Flixtor The Meg
7543460065
Braums Pay Per Hour
Truist Drive Through Hours
Remnant Graveyard Elf
Uvalde Topic
Clairememory Scam
Items/Tm/Hm cheats for Pokemon FireRed on GBA
Facebook Marketplace Charlottesville
The fabulous trio of the Miller sisters
Uc Santa Cruz Events
Grab this ice cream maker while it's discounted in Walmart's sale | Digital Trends
Sport-News heute – Schweiz & International | aktuell im Ticker
Napa Autocare Locator
Star Wars: Héros de la Galaxie - le guide des meilleurs personnages en 2024 - Le Blog Allo Paradise
Best Uf Sororities
Chelactiv Max Cream
The Exorcist: Believer (2023) Showtimes
Everything you need to know about Costco Travel (and why I love it) - The Points Guy
Wsop Hunters Club
Ahn Waterworks Urgent Care
Bella Bodhi [Model] - Bio, Height, Body Stats, Family, Career and Net Worth 
The Weather Channel Local Weather Forecast
Yisd Home Access Center
What Individuals Need to Know When Raising Money for a Charitable Cause
Scripchat Gratis
Wat is een hickmann?
WRMJ.COM
3473372961
James Ingram | Biography, Songs, Hits, & Cause of Death
Kristen Hanby Sister Name
Ixl Lausd Northwest
Breckie Hill Fapello
Weekly Math Review Q4 3
Cox Outage in Bentonville, Arkansas
PruittHealth hiring Certified Nursing Assistant - Third Shift in Augusta, GA | LinkedIn
Cpmc Mission Bernal Campus & Orthopedic Institute Photos
Directions To The Closest Auto Parts Store
Torrid Rn Number Lookup
Setx Sports
Nimbleaf Evolution
Oklahoma City Farm & Garden Craigslist
Cvs Coit And Alpha
Online TikTok Voice Generator | Accurate & Realistic
Read Love in Orbit - Chapter 2 - Page 974 | MangaBuddy
Latest Posts
Article information

Author: Dan Stracke

Last Updated:

Views: 5979

Rating: 4.2 / 5 (43 voted)

Reviews: 90% of readers found this page helpful

Author information

Name: Dan Stracke

Birthday: 1992-08-25

Address: 2253 Brown Springs, East Alla, OH 38634-0309

Phone: +398735162064

Job: Investor Government Associate

Hobby: Shopping, LARPing, Scrapbooking, Surfing, Slacklining, Dance, Glassblowing

Introduction: My name is Dan Stracke, I am a homely, gleaming, glamorous, inquisitive, homely, gorgeous, light person who loves writing and wants to share my knowledge and understanding with you.