01.03.2023| Lecture de 11 minutes
L'IA à toutes les sauces, à SXSW
Avec l'avènement de logiciels comme ChatGPT d’OpenAI, l’intelligence artificielle a rapidement pris d'assaut toutes nos industries. Si bien qu’on a l'impression de s'être réveillé un matin pour constater que ChatGPT et l'IA étaient soudainement omniprésents.
Alors que les marques et les entreprises triment dur pour trouver des moyens rapides et efficaces d'intégrer l'IA dans leur modèle commercial, ce sujet était au premier plan de nombreuses conférences lors du festival SXSW 2023.
Pour le commun des mortels, le terme « IA » évoque bien souvent la peur que les robots prennent le contrôle du monde. Les représentations de l'IA dans les médias ayant été assez controversées et même si personne ne peut prédire exactement comment elle évoluera dans le futur, une chose est certaine, elle fera partie de nos vies.
Et si on commençait par le début : l'intelligence artificielle, c’est quoi exactement?
Selon Chat GPT, l'intelligence artificielle est une discipline de l'informatique qui vise à créer des machines capables d'effectuer des tâches normalement réservées aux êtres humains, telles que la reconnaissance de la parole, la vision, le raisonnement, la prise de décision, l'apprentissage, etc.
Une manière révolutionnaire de travailler qui viendra amplifier ce qu’un humain peut accomplir. Grâce à l'IA, nous serons bientôt non seulement en mesure de résoudre des problèmes complexes, mais de le faire avec une rapidité et une précision jusqu’alors inégalées.
Mais il ne faut pas tomber dans le piège de percevoir l'IA uniquement comme un outil pouvant nous rendre plus productifs! En effet, l’IA va aussi nous aider à apprendre et à nous perfectionner. On peut déjà, par exemple, demander à l'IA de nous « challenger » pour renforcer nos réflexions, ou encore lui poser des questions pour approfondir notre compréhension sur un sujet donné. Impressionnant, n’est-ce pas?
« With AI, skills don’t go away, it’s rather the multiplication of those skills. »
- Ian Beacraft, fondateur et futurologue en chef chez Signal and Cipher
L’IA, une menace pour nos emplois?
C’est bien beau tout ça, mais ça amène plusieurs personnes à se poser la question... nos emplois sont-ils à risque?
Plusieurs pensent que des logiciels comme ChatGPT vont s’emparer de nos emplois, mais selon Beacraft, la réalité sera tout autre : ce n’est pas l’IA qui prendra nos emplois, mais bien les gens aptes à travailler avec l’IA qui le feront. La communauté technologique est unanime : l’intelligence artificielle est appelée à devenir une partie intégrante de notre quotidien au travail, et cette révolution est la plus grande à avoir eu cours dans le travail du savoir (knowledge work) de l'histoire de l'humanité. Bien que de plus grande envergure, on pourrait comparer cette révolution à celle de l’industrialisation.
« The industrial revolution mechanized skills, now we digitize them. »
- Ian Beacraft, fondateur et futurologue en chef chez Signal and Cipher
Selon les prédictions des spécialistes, nous ne perdrons donc pas nos emplois. Ce sont plutôt nos descriptions de poste que l’on verra changer de manière significative alors que nous entrons dans l'ère du « généraliste créatif » comme l’appelle Beacraft. Un changement et une transition qui seront grands pour nous qui venons d’une ère où on prônait l’importance de se spécialiser dans un certain domaine. L’IA sera rapidement plus intelligente que pratiquement n’importe quel spécialiste, et ce, dans une panoplie de domaines. Dans un tel contexte, les gens qui domineront le marché du travail seront les généralistes, forts de leur capacité à couvrir tout un secteur d'activité et qui laisseront les machines être les experts de domaines spécifiques et exécuter les tâches. Un grand bouleversement des méthodes de travail, certes, mais aussi une belle occasion à saisir puisque ce nouveau paradigme laissera plus de place à la créativité et à l'innovation alors que les machines s’occuperont des tâches répétitives qui prennent du temps. Cette nouvelle réalité permettra aux entreprises de ne plus tendre vers un rôle incrémentiel dans un domaine spécifique et de permettre à leurs employés de travailler ensemble horizontalement... des conditions gagnantes pour une croissance exponentielle. Toujours selon Beacraft, les individus qui n'apportent que peu de valeur ajoutée sont les plus menacés, mais les personnes qui écrivent de bonnes choses et qui réfléchissent à de bonnes idées seront toujours autant en demande.
« People who aren’t adding much value are the people who are most at risk, but the people who write great stuff and think about great stuff will always be in demand. »
- Ian Beacraft, fondateur et futurologue en chef chez Signal and Cipher
Il est essentiel de se rappeler que les humains sont capables de beaucoup plus que ce dont on leur donne crédit! Créer et maintenir des relations humaines, faire preuve de jugement, faire des inférences, comprendre des nuances... il y a tellement de facteurs qui sont propres à l’être humain et qui rendent ce dernier irremplaçable! Non, nous ne perdrons pas nos emplois, mais nous devrons nous adapter à une nouvelle réalité.
Pourrons-nous combattre la désinformation alors que l'IA rend les choses si crédibles?
Les humains ont toujours été doués pour écrire de faux textes, éditer des images... il n’y a là rien de nouveau! Cependant, le fait que nous puissions maintenant le faire si rapidement et efficacement, ça, c’est nouveau, et inquiétant. On a fait le test, ChatGPT peut générer des milliers de mots en quelques minutes, sur n’importe quel sujet... même des absurdités... qui, bien formulées et efficacement articulées, semblent très légitimes et hautement crédibles.
L'évolution rapide des technologies numériques a entraîné une augmentation tout aussi rapide du contenu généré et distribué. La sophistication des outils permettant de générer du contenu entre naturellement en concurrence avec notre capacité de modérer ce contenu et, en ce moment, c’est la première qui est en train de gagner. Le potentiel de désinformation est donc énorme, et la modération de contenu sera assurément l’un des plus grands défis à relever avec l’avènement de l’IA. « C’est déjà un gros problème. Tu ajoutes le facteur “temps réel” (avec l’IA et le métavers), et ce problème devient 10 fois plus important. Je ne pense pas qu’on ait trouvé de solutions à date... », déclare Jérôme Pesenti, ancien président de l’IA chez Meta.
La modération de contenu est un exemple d’emploi qui risque de disparaître pour l’humain. Pourquoi? Parce que c’est une tâche qui ne demande pas de jugement, d’opinion, d’émotion... Les logiciels d’IA peuvent analyser, classer et traiter automatiquement les contenus potentiellement dangereux, augmentant ainsi la vitesse et l'efficacité de la procédure de modération globale... ce qui ne peut tout simplement pas être égalé par la modération du contenu assurée par l’humain.
La preuve est dans le pudding! Meta utilise déjà presque uniquement l’intelligence artificielle pour la modération de contenu sur ses plateformes. Malgré toutes ces incertitudes, une chose est claire pour Brockman, cofondateur et président d’OpenAI : des réglementations devront absolument être mises en place pour s’assurer que l’information véhiculée soit véridique et demeure sécuritaire pour tous. L’Europe a d’ailleurs déjà ouvert le bal! La stratégie européenne en matière d’IA vise à faire de l’Union européenne une plaque tournante de classe mondiale pour l’IA et à veiller à ce que l’IA soit digne de confiance et centrée sur l’humain. La ville de Helsinki, en Finlande, est quant à elle la première ville à avoir établi des principes régissant l'utilisation éthique des données et de l'IA.
Qu'adviendra-t-il des relations interpersonnelles?
Il peut être facile (et tentant) de penser que la technologie nous a préparés plus adéquatement à l'inconnu, mais elle a fait en sorte que nous avons développé un besoin constant de certitude, alors que faire face à l'incertitude a toujours été, et restera, une réalité de la vie!
Ton alarme te dit quand te réveiller, Waze te dit où aller, Tinder te dit qui fréquenter. Tous nos désagréments, difficultés, incertitudes sont amoindris. Mais avoir peur, prendre des risques, expérimenter et échouer sont des passages obligés pour le bon développement de notre identité. Les technologies prédictives nous rendent mal préparés et incapables de gérer les incertitudes, puisqu’elles limitent de beaucoup les occasions où l’on doit prendre des risques. « C'est pourtant notre capacité à agir sur l'incertitude et ensuite voir les ondulations de notre action qui nous laisse savoir que nous sommes vivants », affirme la psychothérapeute Esther Perel.
Si, par exemple, on arrive à un premier rendez-vous avec un.e inconnu.e en étant incapable de tolérer l'incertitude et en ne cherchant que la perfection (alors que nous savons pertinemment que la perfection n’existe pas chez les humains), qu’est-ce que ça implique pour le futur de nos relations? L’IA nous dit que ce que nous voulons entendre, parce qu’elle est entraînée pour ça, et non parce qu'elle se soucie de nos émotions... alors que les humains ont des perceptions, opinions, expériences qui diffèrent des nôtres et peuvent parfois causer des frictions. Selon Esther Perel, c’est à nous, en tant qu’êtres humains, de faire un effort pour chérir et entretenir nos vraies relations interpersonnelles et nos rapports intimes.
Mais est-ce qu’il y a un risque réel qu’on finisse par préférer interagir avec une IA qu’avec un autre être humain
Beacraft explique qu’on développe, depuis toujours, de l’affection pour d’autres espèces que la nôtre : on a d’ailleurs déjà tous (ou presque) eu des personnages de dessins animés préférés, des toutous à qui on a donné vie, un animal de compagnie qu’on considère comme un meilleur ami. Rien de plus normal! C’est ce que l’on appelle le biais anthropomorphique, lequel consiste à attribuer des caractéristiques, des pensées et des sentiments humains à d'autres entités... tout simplement parce que ça nous aide à mieux comprendre le monde qui nous entoure. Pourquoi donc ce biais ne s'appliquerait-il pas aussi à l’IA? Selon Pesenti, on risque fortement de développer une sorte d’affection pour nos logiciels d’IA. Mais de l’amour, c’est beaucoup moins probable...
Au travers de leurs échanges avec les humains, les robots peuvent laisser transparaître des sentiments, mais beaucoup affirment que nous ne pouvons pas parler d’amour, puisque les sentiments exprimés ne sont pas (et ne
peuvent pas être) réels. Ces systèmes ne peuvent qu’imiter les types d'échanges trouvés dans des millions de phrases et peuvent, sur la base de ceux-ci, improviser sur n'importe quel sujet fantastique et intangible. Pour qu'une IA soit vraiment sensible, elle devrait être capable de penser, de percevoir et de ressentir, plutôt que de simplement utiliser le langage de manière très naturelle. Les scientifiques sont divisés sur la question même de savoir s'il est possible qu'un système d'IA puisse atteindre ces caractéristiques. L'IA est vraiment douée pour imiter, c’est indiscutable, c’est ainsi qu’elle apprend et fonctionne. Mais ce n'est pas parce que votre IA exécute des tâches pour lesquelles elle a été programmée qu'elle se rapproche de cet espace sensible. À suivre...
Impossible de nier que beaucoup d’incertitudes planent encore autour de cette fameuse intelligence artificielle, de plus en plus omniprésente dans nos vies. Est-ce que les personnes qui développent ces logiciels sont portées par de nobles intentions? Comment pouvons-nous nous assurer que la technologie soit sécuritaire? Pourrons-nous prévenir les risques émergents qui vont apparaître avec cette technologie? Les robots menés par l’IA vont-ils se rebeller un matin et prendre d’assaut la planète? Je vous rassure tout de suite, à cette dernière question, les experts répondent non, tout simplement parce que c’est nous, êtres humains, qui contrôlons ces robots.
Il faut réévaluer et ajuster notre perception de l’IA. Plutôt que de se demander si l’IA va voler nos emplois, demandons-nous si les gestionnaires vont licencier les gens lorsqu'ils auront accès à l'IA. Au lieu de se dire qu’on a parlé avec une IA raciste, disons plutôt que ce sont les développeurs de cette intelligence artificielle qui ont entraîné le logiciel sur une base de données riche en préjugés et stéréotypes racistes.
Le consensus général est que, pour s’assurer que tout se passe bien, c’est à nous, les humains, de bâtir des systèmes d’intelligence artificielle qui sont responsables et éthiques. Si nous utilisons l'IA, nous devons nous en tenir aux standards les plus élevés et rigoureux.
« It's not AI trying to kill us, it's us acting stupid around AI. »
- Ian Beacraft, fondateur et futurologue en chef chez Signal and Cipher