OFF #7 | La newsletter pour reprendre le contrôle
Juin 2023
L’Intelligence Artificielle (IA) accapare les gros titres et fascine autant qu’elle inquiète – en particulier depuis que les LLMs (Large Language Models), ChatGPT en tête, sont devenus accessibles au public il y a quelques mois. Les avertissements lancés par les propres leaders technologiques concernant les risques que l’IA implique pour l’humanité ont fait grand bruit, à commencer par ceux des deux grandes puissances dans ce domaine :
« Les dangers de l’IA m’empêchent de dormir la nuit. »
Sundar Pichai, CEO de Google
« Nous sommes un petit peu préoccupés. »
Sam Altman, CEO d’OpenAI
Ce dernier ajoute: “Je trouve que les gens devraient être rassurés par le fait que nous soyons un peu préoccupés » – ce qui suggère que de tels avertissements, même s’ils sont peut-être sincères, s’inscrivent dans une stratégie de communication dont le but est d’asseoir leur réputation de leaders responsables.
Elon Musk exprime lui aussi depuis des années sa préoccupation à ce sujet, et a plus récemment apporté son soutien à la fameuse demande de moratoire sur le développement de l’IA. Comme toujours avec le CEO de Tesla, SpaceX, Twitter et Neuralink, ces affirmations sont enrobées de contradictions et demandent à être prises avec des pincettes.
Vidéo de Geoffrey Hinton, un des pères de l’IA générative, qui a quitté son post chez Google le mois dernier.
Mais à quels risques font-ils référence ? On mentionne parfois la désinformation à grande échelle, les cyberattaques, les deep fakes, etc.
Toutefois, malgré le fait qu’il s’agisse de menaces existentielles pour notre espèce, il manque souvent une vision systématique et profonde de ces risques.
Dans cette nouvelle édition d’OFF, nous allons considérer 3 grandes catégories de risques :
SCÉNARIO 1 | L’IA comme arme dans les mains des humains
SCÉNARIO 2 | L’IA échappe au contrôle des humains
SCÉNARIO 3 | Dépendance extrême de l’IA et vulnérabilité
SCÉNARIO 1 | L’IA comme arme dans les mains des humains
« Bonjour ChatGPT 5.0: voici un fichier avec les données privées sanitaires, psychographiques et sociales de 200 000 patients. Émets un appel à chacun d’entre eux en imitant à la perfection la voix de leur médecin et ordonne-leur de prendre des médicaments qui contreviennent à leur traitement. »
Dès 2018, les plus grands experts en sécurité liée aux technologies émergentes alertaient sur la possibilité que l’IA devienne une arme facilement accessible aux criminels, terroristes et États voyous, ceci conduisant à :
1. Accroître l’échelle des attaques en réduisant leur coût
2. Augmenter le nombre d’objectifs et la cadence des attaques
3. Amplifier le spectre d’acteurs susceptibles de perpétuer des attaques
Dans ce scénario, l’IA est utilisée de façon malintentionnée par des humains pour agresser, voler ou semer le chaos. Cela pourrait inclure des attaques contre :
La sécurité digitale : l’IA serait utilisée pour pénétrer dans des systèmes informatiques, identifier les vulnérabilités humaines et en tirer profit. Imaginez que vous recevez un appel vidéo d’un ami qui vous demande d’agir d’une certaine façon, en s’appuyant sur des informations intimes que seul vous et lui pouvez connaître… mais qu’il s’agisse en fait un deep fake, indissociable de la réalité et face auquel vous seriez très manipulable.
La sécurité physique: l’IA permettrait d’automatiser des attaques perpétrées contre des véhicules autonomes, des systèmes industriels, des logements domotisés ou des infrastructures essentielles comme des hôpitaux. Plus les installations sont connectées, plus elles seraient vulnérables.
La sécurité politique : la manipulation politique pourrait atteindre des dimensions industrielles (en comparaison, le scandale de Cambridge Analytica pourrait être anecdotique), empêchant l’accès à l’information véridique, rendant impossible des élections justes, biaisant les processus politiques – c’est-à-dire, sapant les fondements de nos démocraties.
Les États sont également susceptibles d’utiliser l’IA à des fins hostiles, notamment dans les conflits armés. Poutine lui-même déclarait en 2017 : « Le pays qui se situera en tête de la course à l’IA sera le maître du monde ». L’IA permettra aussi de collecter et de traiter des données personnelles à très grande échelle (ceci augmentant le pouvoir des États, démocratiques ou non, sur leurs citoyens).
SCÉNARIO 2 | L’IA échappe au contrôle des humains
« Les machines pourraient ôter le pouvoir aux personnes, les diriger, les esclaviser, et peut-être même, les exterminer. »
Anthony Aguirre, directeur exécutif du Future of Life Institute.
Rappelons que l’IA se caractérise par le fait d’apprendre par elle-même et d’accomplir des choses toute seule, avec de moins en moins de supervision humaine. Dans ce type de scénario, c’est l’IA qui prend les rênes, avec des conséquences imprévisibles.
Cela pourrait inclure:
1. Des accidents de laboratoire. Pensons, par analogie, aux accidents nucléaires ou biologiques, dans lesquels une réaction en chaîne échappe à l’environnement confiné d’une centrale ou d’un centre de recherche. Un des principes clé pour comprendre ce scénario est la capacité d’autoréplication de l’IA appliquée à la robotique ou à la biotechnologie.
On désigne comme gelée grise (grey goo problem en anglais), le scénario dans lequel des nano-robots se répliqueraient de façon infinie, absorbant au passage toutes les ressources de la planète. Plus subtilement, une IA pourrait être utilisée pour concevoir un herbicide « parfait » et déploierait cette substance qui détruirait au passage tous les végétaux de la planète (scénario d’écophagie).
2. L’IA malinterprète des instructions humaines. Dans ce scénario, l’IA reçoit des ordres qu’elle applique au pied de la lettre mais le manque de précision dans ces instructions ou la désalignement entre les valeurs humaines et les siennes la mène à appliquer des solutions erronées.
Le philosophe Nick Boström imagine une machine super intelligente qu’on a missionnée pour produire le plus grand nombre de trombones à papier, et celle-ci consomme toute les ressources de l’univers pour accomplir sa mission. Dans un autre scénario, on ordonne à une IA de résoudre le problème du changement climatique et celle-ci commence à exterminer les êtres humains, considérant qu’ils en sont la cause.
3. IA hostile. Ce type de scénario présuppose un saut vers une IA générale (IAG) capable de marquer ses propres objectifs tels que son auto-préservation et l’acquisition de ressources permettant d’accomplir sa mission. Des philosophes comme Nick Boström avertissent de la difficulté de coexistence entre deux espèces intelligentes et par conséquent, du fait que les humains et l’IA rentreraient sans doute dans un conflit duquel cette dernière, libérée du contrôle des premiers, sortirait sans doute gagnante.
Une IA hostile pourrait être létale de manière bien plus subtile que Terminator : « pour un programme informatique avec une imagination intellectuelle colossale en comparaison avec la nôtre, explique Kai-Fu Lee, […] la connaissance approfondie de la chimie, de la physique et des nanotechnologies lui permettrait d’atteindre ses objectifs en un instant. »
SCÉNARIO 3 | Dépendance extrême de l’IA et vulnérabilité
Vous êtes-vous déjà senti profondément désorienté sans votre smartphone, du fait que celui-ci ait cessé de fonctionner ou que vous l’ayez oublié ? Nombreux sont ceux qui, dans une telle situation, ne sont plus capables d’aller d’un point A à un point B sans leur GPS, ont oublié comment lever la main pour héler un taxi, ne se souviennent plus de données élémentaires telles que des numéros de téléphones ou mots de passe, ne peuvent plus effectuer de paiements car leur carte bancaire virtuelle est dans leur téléphone, etc. Malgré tout, ils n’en meurent pas et résistent toujours jusqu’à récupérer leur dispositif.
Serait-on toutefois capable de survivre si cette dépendance à l’IA était encore bien supérieure à ce qu’elle est à présent ? Depuis la sortie de ChatGPT, on observe comment de plus en plus de personnes l’utilisent constamment comme substitut à leur propre réflexion. En parallèle, des entreprises comme Neuralink développent des implants neurotechnologiques avec l’objectif de faire entrer l’IA dans nos cerveaux.
>> Dans un scénario où nous serions dépendants de l’IA pour utiliser presque toutes nos fonctions cognitives, voire biologiques basiques, que se passerait-il si l’IA cessait de fonctionner ne serait-ce que quelques minutes, que ce soit à cause d’un événement externe incontrôlable (tel qu’une tempête solaire) ou un acte malintentionné ?
Un tel scénario est d’autant plus préoccupant qu’il pourrait s’appliquer à très grande échelle. L’expert en cybersécurité de Harvard, Bruce Schneier, prévient que si on détecte une vulnérabilité dans un iPhone, ce sont tous les iPhones qui sont vulnérables. Si presque tous les objets sont connectés et notre vie en dépend au point de ne pas pouvoir vivre sans eux, cela donne une idée de la fragilité qui nous caractériserait face à une possible faille de l’IA.
« L’IA sera soit la meilleure, soit la pire chose qui soit arrivée à l’humanité. »
Stephen Hawking
Si on ne met pas en place des pare-feux politiques robustes, le plus probable est que le meilleur et le pire arrivent à la fois. Mais si le pire fait référence à l’extinction de l’humanité ou a des scénarios apocalyptiques, le meilleur sera d’une utilité limitée.
IA: Quels sont les véritables risques ?
Cela vous a paru intéressant?
Recevez OFF, la newsletter pour reprendre le contrôle
Une fois par mois, je propose une réflexion sur une facette spécifique de l’influence du numérique dans nos vies afin de gagner en compréhension face au bouleversement accéléré de notre quotidien.