L’intelligence Artificielle (100% Ibrahim) Vous cherchez probablement de comprendre de quoi il s’agit vraiment quand on parle d’intelligence artificielle ou IA à notre époque actuelle ? En fait, historiquement, le terme fût inventé vers les années 50 ans, là où il s’agissait plus d’un concept de fiction que de réalité. À cette époque, on appelait un programme “intelligent” celui qui peut faire des taches paraissant complexe, mais cela rester toujours qu’une suite d’instruction logique fournie par des programmeurs. Mais ce n’est que dans les années 2000 et plus tard qu’on parle de modèle de machine learning, c'est-à-dire d’algorithme qui essaye de reproduire la capacité d’apprentissage des humains, cette doctrine était encore jeune vu que le savoir de ces modèles était encore simplement programmé, jusqu’à ce qu’une révolution dans ce domaine soit apparue. En 2012, le deeplearning s’est montré plus prometteur que l’ancienne façon de faire, ce modèle était beaucoup plus bourrin et demandé énormément en ressources, car c’était le premier modèle à apprendre tout seul ce qu’il devait faire juste en lui montrant une énorme base de donnée de ce qu’on lui demande et ce qu’on veut en sortie, par exemple : une base de donnée de centaine de milliers de photo et à côté le mot qui les représente comme “chat”, “chien”, etc. Ce modèle va par la suite apprendre à prédire ce que chaque image représente en se corrigeant de la base de donnée, techniquement parlant, il modifie la valeur des poids de ses neurones qui par conséquent changeront le résultat (le mot prédit) pour la même photo. Plus récemment encore, le 30 novembre 2022, ChatGPT vu le jour. Celui-ci est établi d’après une nouvelle façon de faire des modèles d’intelligence artificielle et ce sont les modèles génératives, ces derniers ne vont pas simplement trier les données en étiquette comme pour nommer les images, mais ils vont eu même généré des images, texte, vidéo, etc. Pour ChatGPT, c’est un modèle génératif de texte, il fonctionne en décomposant chaque mot du langage sous forme de token, et tout ce dont il fait, c'est d’essayer de prédire le prochain token (ou mot) d’un texte donné, quel token va-t-il choisir ? Il a appris d’après des milliards de textes sur internet la probabilité pour que chaque mot vienne après un autre derrière beaucoup d’autres mots servant de contexte, le modèle est extrêmement gourmand en calcules pour uniquement répondre à vos questions. Si ChatGPT ne fais que de prédire le prochain mot d’un texte, comment fait-il alors pour répondre à mes questions, il ne serait pas plus tôt censé continuer à poser d’autres questions, vu le contexte, qu’est-ce qui le pousserait à y répondre et se prendre pour un assistant ? OpenAI (l’entreprise créatrice du modèle) ont réglé le problème en passant un “pré-prompt” à votre requête, c'est-à-dire une requête qui sera envoyée avant celle de l’utilisateur, et on pense qu’il aurait pu écrire quelque chose comme “L’utilisateur s’apprête à vous demander vous ChatGPT assistant à répondre à la requête”. Comme on peut le voir de nos jours, l’IA est de plus en plus présente dans nos vies, que ça soit des assistants comme ChatGPT et Perplexity, ou même les algorithmes de recommandations dans les réseaux sociaux qui ont peut-être un impacté encore plus important. L’intelligence artificielle Vous vous demandez probablement ce que signifie réellement le terme intelligence artificielle (IA), si souvent évoqué dans le monde d’aujourd’hui. Historiquement, ce concept a vu le jour dans les années 1950, une époque où l’idée relevait davantage de la science-fiction que de la réalité. À l’origine, un programme était qualifié d'« intelligent » lorsqu'il pouvait accomplir des tâches complexes, bien qu'il ne s'agisse en réalité que d’une suite d’instructions logiques minutieusement écrites par des programmeurs. Ce n’est qu’à partir des années 2000 que l’on a commencé à parler de machine learning, ou apprentissage automatique. Cette discipline visait à reproduire, dans une certaine mesure, la capacité d’apprentissage humain. Cependant, à ses débuts, le savoir des modèles reposait encore sur des données soigneusement programmées. Cela a duré jusqu’à une véritable révolution dans le domaine : l’apparition de méthodes plus sophistiquées. En 2012, la révolution du deep learning a marqué un tournant majeur. Cette approche, bien plus ambitieuse, nécessitait des ressources considérables en raison de sa nature computationnelle intensive. Pour la première fois, ces modèles pouvaient apprendre par eux-mêmes à accomplir des tâches, simplement en s’appuyant sur des bases de données gigantesques. Prenons l’exemple d’un algorithme entraîné à reconnaître des images : on lui fournit des centaines de milliers de photographies associées à des étiquettes telles que « chat » ou « chien ». Grâce à ces informations, le modèle ajuste les « poids » de ses neurones artificiels, modifiant ainsi ses prédictions jusqu’à atteindre une précision satisfaisante. Plus récemment encore, le 30 novembre 2022, ChatGPT a vu le jour, inaugurant une nouvelle ère : celle des modèles génératifs. Contrairement aux précédents modèles qui se limitaient à classifier des données, ces algorithmes sont capables de générer du contenu : texte, images, vidéos, et bien plus encore. ChatGPT, un modèle génératif spécialisé dans la production de texte, fonctionne en décomposant le langage en unités appelées « tokens ». Son objectif ? Prédire le prochain token à partir d’un contexte donné. Cette capacité est rendue possible grâce à un entraînement colossal sur des milliards de textes provenant d’internet, qui lui permet d’évaluer la probabilité qu’un mot suive un autre. Mais alors, si ChatGPT se contente de prédire le mot suivant, comment parvient-il à répondre à nos questions au lieu de simplement continuer un texte de manière aléatoire ? La réponse réside dans ce qu’on appelle un pré-prompt. Avant même que votre requête ne soit traitée, OpenAI (l’entreprise à l’origine de ce modèle) ajoute une consigne préalable, probablement une phrase du type : « L’utilisateur s’apprête à poser une question, et vous, ChatGPT, devez agir en tant qu’assistant pour y répondre ». Aujourd’hui, l’intelligence artificielle s’invite de plus en plus dans notre quotidien. Des outils tels que ChatGPT ou Perplexity servent d’assistants virtuels, tandis que d’autres formes d’IA, comme les algorithmes de recommandation sur les réseaux sociaux, façonnent subtilement nos habitudes et nos interactions, parfois avec des conséquences significatives.