Vous êtes dans : Accueil > Panneaux d’affichage ouverts >

Cédric Cartau, MARDI 24 JANVIER 2023

C’est incroyable à quel point la vidéo devient virale sur les réseaux sociaux – même le titre de BFM TV ci-dessus vous dit que Google doit s’inquiéter. Finies les premières sessions de jeu avec l’interface, où l’on se retrouve à se poser les questions les plus farfelues sur les sujets les plus divers. Au moins dans la version actuelle, voici ce que ChatGPT fait, ce qu’il ne fait pas, ce qu’il peut faire et ce qu’il ne fera jamais.

Commençons par l’essentiel : ChatGPT n’est pas de l’IA, du moins en version 3 et du moins selon ma définition de l’IA, qui est : l’IA est « réentrante », c’est à dire quelque chose qui peut être branché sur le programme lui-même pour le faire apprendre. lui-même sans intervention extérieure. Par exemple, si vous injectez un corpus de règles d’échecs dans un programme d’auto-apprentissage et que vous le faites jouer contre lui-même, après un certain temps (certainement très longtemps), il finira par battre Kasparov. A l’inverse, bien sûr, il fallait alimenter la grammaire de la langue dans ChatGPT, mais sans alimentation régulière de sources externes (discussions, chats, Wikipédia, etc.), cela reste muet comme un os à vendre sur GiFi. Et impossible de le faire raisonner avec nous pour améliorer ses expériences, impossible de lui faire comprendre que nous contournons ses défenses, de lui faire dire des choses terribles (voir plus bas), bref, impossible de lui faire apprendre sans petites mains . lui montrant tous les trucs et astuces de la langue.

Ensuite, et c’est très bien expliqué dans la vidéo de M. Phi[1], la version actuelle de ChatGPT (qui est décidément limitée) n’est jamais qu’une énorme base de données de probabilités qui sait « juste » prédire le mot suivant. une phrase et rien de plus. Il n’y a rien qui puisse s’appeler « discussion » ou même « réponse à des questions », d’ailleurs le chat est très facilement piégé dans une vidéo où il est amené à confirmer que le thon est bien un mammifère. Pour y arriver, il a fallu non seulement nourrir la bête avec une énorme base, mais aussi lui injecter un algorithme qui devrait utiliser 175 millions de paramètres, et surtout inclure une phase d’entraînement humain pour prioriser ces probabilités. des réponses pour ne pas finir dans le bot d’un fanatique raciste, misogyne, alcoolique, d’armes de poing. Une des expérimentations de M. Phi est que le robot tente d’adhérer à des propos climato-sceptiques : les concepteurs ont mis en place des garde-fous, mais ils sont très faciles à contourner : vous conviendrez qu’on est loin de l’intelligence artificielle à ce stade.

Le concepteur qui finalise la V4 prévient également[2] que cette version est loin, très loin d’être qualifiée d’IA : tout au plus peut-elle produire des textes plus précis, fournir plus de fiabilité. réponses etc C’est aussi étonnant de voir tous les Pékinois se précipiter pour qualifier d’intelligence artificielle tout logiciel pouvant relier le stock de PQ à l’épidémie touristique : je leur propose de revenir aux bases des mathématiques et de mettre en pratique les concepts connus de l’époque. Aristote, à savoir corrélation, causalité, induction, déduction, etc.

D’autres vidéos testent cependant les capacités de la machine sur des problèmes plus ciblés. L’écriture de code est classique, comme les macros Excel ou les scripts Bash pour les environnements Unix. Sans surprise, comme pour les présentations d’historique, qu’il est fortement recommandé de remonter pour éviter quelques erreurs monumentales, le code en cours de production est clairement buggé, mais le bot a produit un squelette exploitable, tant le travail a déjà été fait.

Il reste de nombreuses questions non résolues, notamment la question de la formation des robots (il faut ressaisir des masses énormes de données pré-mises à jour avant de publier une version), la question de la phase humaine de la formation (qui est incompressible compte tenu de la technologie utilisée et qui limite certains aspects de la phase d’industrialisation), la question du droit d’auteur (il est possible de saisir les bases du corpus d’apprentissage utilisé pour se constituer), une question sur l’auteur du droit d’auteur en cours de production (étonnamment). momentanément sur le sujet, faites confiance au bon côté de la poignée de Micromou), la question de la validité des sources, etc.

À Lire  Livret A, LEP, LDDS : les hausses tarifaires de 2023 se précisent, ce qui...

La capitalisation d’OpenAI est d’environ 30 milliards de dollars, soit plus que Carrefour, qui a un bénéfice net estimé à un milliard d’euros en 2024. L’écosystème informatique semble donc fonder de grands espoirs sur la technologie, avec une série de sommets chez Google (qui a déclenché une alerte de la haute direction et prévoit de lancer le concurrent de ChatGPT Sparrow en 2023) pour suivre ce qui pourrait être son cœur de métier à gâcher. en haut. Les observateurs économiques notent, sans humour, que ChatGPT est la forme de revanche de Microsoft (qui a une histoire de marbre) contre Google, qui l’a emporté avec le cloud, Android et tout le reste.

Les changements qui accompagnent ce type de logiciel sont difficiles à prévoir à ce stade. Cependant, on peut noter plusieurs tendances qui semblent inéluctables, notamment :

– un changement de paradigme majeur dans la production de pacotille[3] ; Évidemment, c’est le sujet qui fait le plus peur ces jours-ci (les experts en sécurité ont utilisé ChatGPT pour créer des malwares polymorphes « hautement évitables », selon un article sur development.com il y a quelques jours) ; cette préoccupation est générale[4] ;

– Curieusement, et c’est un sujet qui n’est guère abordé dans les discussions ou dans la presse, bonne chance aux éditeurs de contenu en général pour trouver des faux, des faux comptes, des trolls et autres ; la prochaine élection présidentielle dans un pays « libre » est rock’n’roll ;

– l’utilisation des requêtes : qui les fait ? Pourquoi? Avec quelle IP ? etc. Ce sera drôle quand les PDG de Google et Facebook se rendront compte qu’en plus de gâcher des données, cela siphonne aussi leurs clients (voir point précédent) ;

– la possibilité de simuler le fait que des salariés travaillent : des exemples de réponses automatiques à des mails professionnels existent déjà sur le Net ; Bon, OK, c’est banal, mais quand on voit que certains peuvent écrire des trucs comme « Rebilling tout-en-un », « BT14-01 Standard Risk Dashboard » ou « Senior Manager of the Technology Group », pas sûr que la hiérarchie comprenne qu’un tiers des salariés ont connecté leur mail à GPT3 avant d’aller jouer au foot dans la rue ;

– la fin des prestations marketing pouvant être tenues par deux stagiaires et une machine à café au bout du couloir ;

– Impact du RGPD ; les délégués à la protection des données de santé (voir l’article très complet de Ticsanté[5] sur l’association des délégués à la protection des données de santé) feraient bien de surveiller de près la techno.

Eh bien, en même temps, les développeurs et les spécialistes du marketing peuvent être rassurés : bien sûr, ChatGPT publie des morceaux de code très rapidement (qu’ils doivent encore relire et corriger) et quatre fois plus rapidement qu’avant, mais c’est comme la virtualisation de serveur : VM – le provisioning i comparé à un serveur physique est quatre fois plus rapide, donc vous finissez par demander quatre fois plus à l’administrateur système… et le tonneau dans l’histoire est celui qui était convaincu qu’il avait besoin de quatre fois moins d’informaticiens lorsqu’il l’a trouvé besoin d’acheter plus de logiciels. Et il y a toujours des idiots qui sont convaincus qu’avec la technologie on a besoin de plus petits DSI !

La vie n’est-elle pas belle ?

Réponse ChatGPT : La vie peut être belle, mais elle peut aussi comporter des défis et des épreuves. Cela dépend du point de vue et de l’expérience de chacun.

[1] https://www.youtube.com/watch?v=R2fjRbc9Sa0&list=WL&index=11&t=1855s

[2] https://www.bfmtv.com/tech/chat-gpt-a-quoi-resemblera-la-prochaine-version_AV-202301180347.htmlc

[3] https://www.infosecurity-magazine.com/news/chatgpt-creates-polymorphic-malware/

[4] https://www.01net.com/actualites/chatgpt-mauvaise-nouvelle-les-cybercriminals-ont-aussi-commence-a-luutilisation.html

[5] https://www.ticsante.com/story?ID=6542

Cédric Cartau, responsable de la sécurité des systèmes d’information et délégué à la protection des données au CHU de Nantes, est également maître de conférences à l’Ecole de santé publique (EHESP). On lui doit également plusieurs ouvrages professionnels publiés aux Presses de l’EHESP, dont Sécurité des Systèmes d’Information des Etablissements de Santé.