top of page
CHATGPT : TEST ET CONSTAT

Test

​

Au cours de la première semaine de mai 2023, nous avons procédé  à un exercice en posant sept questions à chatGPT. Il s’agissait de savoir si ce nouvel outil informatique correspond au battage médiatique des derniers mois, d’en mesurer les limites et déterminer s’il est à la hauteur des attentes générales. Par ailleurs, il s’agissait aussi de savoir s’il y avait lieu de s’en méfier et de s’inquiéter de l’intelligence artificielle (AI) sur laquelle il est fondé. En effet, plusieurs des concepteurs de l’IA ont sonné l’alarme récemment, soulignant son potentiel dangereux pour l’humanité. 

 

Constat

​

Nous avons posé sept questions de diverse nature à chatGPT, certaines philosophiques, d’autres scientifiques ou simplement triviales.

​

À la lumière des réponses données par chatGPT, il apparait évident que celles-ci sont banales, pondérées, générales et conformes aux idées reçues ou véhiculées dans les divers domaines sondés.

​

Cela est bien normal puisque, par définition, grâce à l’IA et aux algorithmes qui la constituent, chatGPT a la capacité de consulter un très grand nombre de sources d’information, dépendamment des sujets, de les synthétiser et d’en soumettre les éléments les plus pertinents et « lourds » du point de vue statistique. À ce chapitre, chatGPT est un outil de recherche sans pareil.

​

Par contre, cet outil comporte également des limites, dont la plus notoire étant que les réponses données ne permettent pas de poursuivre et d’enrichir le débat. Il manque à cet outil la capacité de réfléchir, reprendre une idée, en déceler une nuance pertinente, en soumettre une nouvelle et ouvrir de nouvelles pistes de réflexion. Surtout, il lui manque la capacité de poser un jugement quelconque sur l’information retenue et présentée. À cet égard, chatGPT ne présente pas les qualité s requises pour entamer et poursuivre une conversation dite « intelligente ». En fin de compte, c’est un outil qui ressasse, rumine et régurgite des informations glanées dans d’immense banques de données, mais non conçu pour leur donner une dimension originale et utile pour l’avancement des connaissances. Finalement, chatGPT ne présente que les éléments de réponse qui, statistiquement, apparaissent le plus fréquemment dans les bases de données consultées.

​

Deux exemples à cet effet tirés de notre test. En réponse à une question demandant les cinq caractéristiques d’un leader, il indique celles le plus souvent mentionnées dans la littérature organisationnelle, sans plus. À la question : « Qu’est-ce que tu ne sais pas? », la réponse de chatGPT est totalement insignifiante; il débite une série de sujets qu’il ne peut pas connaitre, tels des événements qui n’ont pas encore eu lieu ou des renseignements confidentiels…On est loin de la réponse à la même question, attribuée à Socrate et rapportée par Platon : « Je sais que je ne sais rien »! 

​

L’utilité de cet outil sera donc de seconder des chercheurs, des professionnels et même le public en général, dans la recherche de synthèses requises pour examiner des faits, de poser ou de valider un diagnostic sur une situation donnée ou de mieux comprendre des événements passés. Par exemple, l’IA est utilisée de plus en plus souvent pour poser un diagnostic dans les cas de cancer du sein. Considérant la très grande quantité de recherches scientifiques sur ce sujet spécifique, les médecins spécialistes ne peuvent demeurer à la fine pointe des dernières avancées de la science. Et c’est là que chatGPT et l’IA peuvent être d’une grande utilité.

​

En conclusion, à la lumière du test que nous avons effectué, il est clair que chatGPT, et l’IA sur lequel cet outil est fondé, peut être d’une grande utilité pour une appréciation globale et synthétique d’un sujet donné. Par contre, il comporte des lacunes importantes au plan de la capacité de réfléchir et d’initier une idée originale qui pourrait enrichir et orienter une conversation.

​

Mais alors, d’où vient cette crainte décriée par les plus éminents spécialiste de l’IA?

​

Risques

​

ChatGPT a été lancé il y a quelques mois fondé sur une technologie, l’intelligence artificielle, vieille d’une dizaine d’année. Parmi les pionniers, les Drs Yoshua Bengio et Geoffrey Hinton craignent que l’IA ne représente un danger à l’humanité. Pourquoi?

​

Si j’ai bien compris les interventions récentes de ces éminents scientifiques, c’est essentiellement pour trois raisons.

​

La première est que cet outil de recherche, chatGPT, a la capacité indéniable de traiter et synthétiser rapidement une masse d’information considérable répartie dans une multitude de bases de données de grande envergure. Or, ces sources consultées ne sont pas toujours fiables et valides. Elles peuvent être polluées ou corrompues par des données fausses ou même mensongères. « Ces systèmes peuvent générer des informations fausses, biaisées ou toxiques. Les systèmes comme le GPT-4 se trompent sur les faits et inventent des informations, un phénomène appelé "hallucination". » (New York Times - Cade Metz  – 7 mai 2023) 

​

L’outil lui-même ne semble pas comporter une grille de vérification et de validation. De plus, à moins d’être programmé en ce sens, il n’a pas la capacité de déterminer ce qui est vrai de ce qui ne l’est pas, ce qui est bien de ce qui est mal. Bref, il ne possède pas de « compas moral » qui le guiderait dans ses recherches pour ne présenter que ce qui est utile. Encore là, on est loin de l’approche socratique concernant le vrai, le bon et l’utile…

​

La seconde raison est celle des risques de l’impact de cette technologie sur le marché du travail. En effet, des pans entiers de métiers et de professions risquent de disparaitre. Certains y verraient une transformation sociale en profondeur qui libérerait l’homme de tâches répétitives et obsolètes. Eric Schmidt, co-fondateur de Google, affirme que nous assistons actuellement à une révolution bien plus significative que la Révolution industrielle. D’après lui, elle s’apparente à l’invention de la roue! 

​

La troisième raison invoquée par les scientifiques concernant les risques de l’IA se trouve dans la structure même de sa programmation. La grande innovation des Dr Bengio et  Hinton, surnommé le « parrain » de l’IA, a été de prendre pour modèle le cerveau humain dans l’organisation de la machine en « réseau neuronal ». « Un réseau neuronal est un système mathématique qui apprend des compétences en analysant des données. » (New York Times - Cade Metz – 7 mai 2023). C’est ce que l’on nomme « apprentissage profond ».

​

« Cette technologie peut aider les programmeurs informatiques, les écrivains et d'autres travailleurs à générer des idées et à travailler plus rapidement. Mais le Dr Bengio et d'autres experts ont également mis en garde contre le fait qu’elle peut apprendre des comportements indésirables et inattendus. ». 

​

On ne sait pas trop comment ni pourquoi la machine, confrontée à certaines situations particulières, procède à des mutations dans ses algorithmes et adopte des « comportements indésirables et inattendus ». Une machine qui développe des connaissances possiblement néfastes et qui agit de façon inattendue risque de prendre des décisions nuisibles au genre humain.

​

La réalité risque de dépasser la science-fiction…

​

Il y a de cela plusieurs années, le célèbre auteur de science-fiction, Isaac Asimov, avait émis trois règles qui régiraient la gestion des robots, la première étant : « Un robot ne peut porter atteinte à un être humain. » 

​

Malheureusement, la recherche et le développement de l’IA et des robots se font actuellement sans règles, lois ou protocoles. Le champ est libre aux entreprises d’agir comme bon leur semble, guidées uniquement par leur course aux profits. Mais le véritable danger viendrait de nations qui auraient l’ambition d’utiliser cette technologie naissante pour assouvir leur soif de pouvoir et d’hégémonie. Une guerre menée par une machine dotée d’IA serait catastrophique pour tous les protagonistes et la race humaine dans son ensemble. 

​

Comme on peut le constater, le risque est grand qu’un robot doté d’IA nuise à l’être humain dans un avenir plus ou moins rapproché.

​

Le débat demeure ouvert quant à l’avenir de l’IA…et celui de l’humanité!

​

Guy Djandji

Mai 2023

Visites

bottom of page