26 novembre 2024
ChatGPT, 2 ans plus tard : qu’est-ce qui a changé ?
Le 30 novembre 2022, OpenAI lançait ChatGPT, une intelligence artificielle conversationnelle qui a rapidement marqué la société. En seulement deux ans, cet outil s’est intégré dans le quotidien de millions de personnes, révolutionnant la manière de travailler, d’apprendre et de créer. Mais alors que cette innovation s’est imposée, elle a aussi soulevé des questions fondamentales sur les biais humains, les inégalités d’accès et les défis éthiques. Voici un tour d’horizon détaillé de ce qui a changé.
ChatGPT et la montée en puissance des IA génératives
L’essor de ChatGPT a marqué un tournant dans l’adoption des intelligences artificielles génératives, dépassant de loin les attentes initiales. Mais ChatGPT n’est pas seul dans cet écosystème : la concurrence stimule l’innovation et étend les usages possibles.
Depuis son lancement, ChatGPT a connu une croissance fulgurante. D’après un sondage réalisé par Pew Research en février 2024, 23 % des adultes américains ont utilisé ChatGPT, avec un taux d’adoption encore plus élevé (43 %) chez les jeunes âgés de 18 à 29 ans. À l’échelle mondiale, OpenAI a rapporté que l’outil comptait 200 millions d’utilisateurs hebdomadaires en août 2024, soit une augmentation spectaculaire par rapport aux 100 millions enregistrés en novembre 2023. Cette popularité s’explique par plusieurs facteurs :
- Une interface simple, disponible gratuitement ou via un abonnement abordable.
- Un outil polyvalent pour rédiger des emails, créer du contenu, apprendre de nouvelles compétences, et bien plus encore.
- Une communauté dynamique qui a imaginé une multitude de cas d’usage innovants partagés par les utilisateurs eux-mêmes.
Les avancées technologiques ont aussi permis d’introduire des fonctionnalités révolutionnaires, comme l’IA multimodale qui combine texte, image et audio pour répondre à des demandes complexes, des solutions spécifiques comme Salesforce avec Einstein GPT ou encore AlphaDev dans la recherche scientifique, ainsi que des agents autonomes pour exécuter des tâches sans supervision humaine.
De plus, ChatGPT n’évolue pas en solitaire. Des acteurs comme Anthropic (Claude), Meta (Llama), Google (Gemini) et Baidu (ERNIE Bot) enrichissent l’écosystème en proposant des alternatives avec des caractéristiques spécifiques. Cette concurrence a accéléré l’innovation, rendant l’IA générative plus accessible et performante que jamais.
ChatGPT, reflet des biais humains et des défis éthiques
L’adoption massive des modèles génératifs met en lumière des questions fondamentales sur nos biais cognitifs et sur l’éthique de ces outils. ChatGPT a révélé notre dépendance aux raccourcis cognitifs. C’est notamment le cas du biais d’automatisation qui pousse de nombreux utilisateurs à accepter les réponses de ChatGPT sans les vérifier, sous prétexte qu’elles semblent objectives, ou encore le biais de disponibilité qui amène à surévaluer les réponses immédiates et bien formulées, même si elles ne sont pas exactes. Ces biais reflètent un besoin critique : sensibiliser les utilisateurs à analyser les résultats générés par l’IA et à toujours vérifier les informations.
L’adoption rapide de ChatGPT s’accompagne de défis éthiques majeurs. Le premier est celui de la mésinformation. Les hallucinations de ChatGPT (réponses factuellement incorrectes) peuvent tromper les utilisateurs et même aller jusqu’à mettre en doute l’intégrité professionnelle des utilisateurs, comme ce qui est arrivé à un avocat qui s’est basé sur de fausses décisions judiciaires inventées par ChatGPT. De plus, l’utilisation massive de données soulève des questions sur la gestion et la sécurité des informations sensibles.
Les leçons des deux dernières années
L’essor de ChatGPT souligne un besoin crucial : développer une double compétence, qui combine la compréhension des algorithmes et l’esprit critique humain. Si l’IA peut fournir des solutions rapides et performantes, elle reste tributaire des données sur lesquelles elle s’appuie et des décisions humaines derrière sa conception. Développer une « littératie algorithmique » permet de détecter les erreurs plus rapidement et de mieux comprendre comment l’IA fonctionne selon les cas d’usage. Sans une compréhension critique, ces outils risquent de fournir des résultats biaisés ou de renforcer des approches inadéquates. Former les utilisateurs à travailler avec l’IA, tout en gardant leur autonomie de jugement, est essentiel.
ChatGPT a ajouté de nombreuses fonctionnalités depuis son lancement, comme la génération d’images, l’intégration vocale et des capacités multimodales. Si ces avancées enrichissent l’expérience utilisateur, elles augmentent également la complexité, au risque de provoquer une fatigue décisionnelle. Lorsque trop d’options sont disponibles, les utilisateurs peuvent se sentir dépassés et ne pas utiliser pleinement les outils à leur disposition. Ainsi, les entreprises qui adoptent ChatGPT sans plan clair sur son utilisation se retrouvent souvent à expérimenter des cas d’usage peu pertinents ou inefficaces. Former les équipes à utiliser ces outils de manière stratégique est crucial pour éviter l’épuisement mental et maximiser les bénéfices.
ChatGPT a transformé notre façon de travailler, de penser et de créer. Mais au-delà de ses prouesses techniques, il nous force à réfléchir à nos propres biais, à nos priorités et à notre vision du progrès. Pour que l’IA reste un levier positif, nous devons apprendre à collaborer intelligemment avec elle, en combinant l’intelligence naturelle et artificielle. L’avenir n’est pas seulement ce que les machines peuvent faire pour nous, mais ce que nous pouvons accomplir ensemble. Et ça commence dès les premières années au sein des grandes écoles de management.