Eliezer Yudkowsky, informaticien et écrivain américain, a un jour déclaré : « Le plus grand danger de l’intelligence artificielle est sans conteste que les gens concluent trop rapidement qu’ils la comprennent. »1.

Tout le monde se passionne pour l’intelligence artificielle (IA). Grâce à une multitude de films de science-fiction populaires, celle-ci évoque des images futuristes de robots intelligents et d’ordinateurs capables de penser et de parler comme des humains.

Certaines des visions les plus dystopiques évoquées par l’IA ont bénéficié d’un formidable coup de projecteur en mai 2023, lorsque Geoffrey Hinton, souvent considéré comme l’un des pères fondateurs de l’IA, a annoncé qu’il démissionnait de Google. Hinton a notamment mis en garde contre les risques croissants liés aux développements dans ce domaine, en déclarant : « J’en suis arrivé à la conclusion que le type d’intelligence que nous développons est très différent de l’intelligence dont nous disposons. »2

L’IA est indéniablement au centre de nombreux débats. Par ailleurs, il est clair qu’il reste encore beaucoup à apprendre à ce sujet, notamment en ce qui concerne la perspective grandissante de l’intelligence artificielle générale (IAG).

En 2023, nous utilisons de plus en plus l’IA dans notre vie quotidienne. Celle-ci est intégrée dans les recherches sur Internet, les voitures électriques et les assistants vocaux comme Alexa et Siri. Bien qu’il s’agisse d’une intelligence véritablement artificielle, elle ne ressemble pas à ce que nous aurions pu nous attendre du concept d’ordinateur « intelligent ». En effet, nous sommes loin de HAL, l’ordinateur de 2001 : L’Odyssée de l’espace, film culte réalisé par Stanley Kubrick en 1968.

C’est là qu’entre en scène l’IAG, aussi appelée « IA forte ». L’IAG est essentiellement la prochaine évolution de l’IA et elle est plus proche de l’idée que nous nous faisons de cette technologie, à travers des films culte comme Blade Runner et Terminator.

Certains systèmes d’IA peuvent déjà assimiler d’énormes volumes de données. La différence avec l’IAG est que celle-ci est capable de comprendre les données. L’IAG est, pour le moment, un type théorique d’IA qui possède des capacités cognitives semblables à celles de l’homme, comme la capacité d’apprendre, de raisonner, de résoudre des problèmes et de communiquer en langage naturel.

En somme, il s’agit d’une IA capable de penser et, surtout, d’apprendre comme les humains.
À moins que vous n’ayez hiberné depuis Noël 2022, vous avez certainement entendu parler de ChatGPT, un chatbot développé par OpenAI, une société de recherche en intelligence artificielle (IA) basée à San Francisco. On parle d’une IA « générative » plutôt que d’une IAG, car elle ne peut accomplir que ce pour quoi elle a été programmée.

Les technologies d’IA conversationnelle comme ChatGPT, ou encore BARD de Google, sont capables d’analyser une grande quantité de données. Naturellement, ce logiciel a suscité un étonnement général et une certaine inquiétude quant à sa capacité à créer du contenu basé sur des instructions simples.

Vous pouvez lui demander de créer des plans d’affaires, des recettes, et même des chansons et des poèmes. Celui-ci le fait avec une telle authenticité et une telle qualité que certaines personnes ne remarquent même pas que ce qu’il crée n’est qu’un simple calcul.

ChatGPT utilise l’ « apprentissage profond ». Cela signifie que la technologie passe au crible des milliards d’octets de données pour répondre aux demandes. Par exemple, si vous lui demandez de créer une recette de cupcake végétalien, il passera en revue toutes les recettes végétaliennes et toutes les recettes de cupcake disponibles en ligne. Il fera ensuite le lien entre les différentes données et proposera une solution basée sur ses recherches.

La suite est source de débats : la technologie comprend-elle réellement la demande qui lui est faite lorsqu’elle lie les données entre elles pour concevoir une solution ? Ou s’agit-il simplement d’informatique de haut niveau ?

Les critiques soulignent la capacité de ChatGPT à produire des absurdités ou son incapacité à saisir ce qui lui est demandé. Cela témoigne d’une incompréhension fondamentale et, d’une certaine manière, d’un manque de bon sens. Or, le bon sens est essentiel à l’intelligence telle que nous la connaissons, comme l’a affirmé un jour l’informaticien américain Marvin Minsky3, ce qui pourrait constituer la percée dont l’IA a besoin.

« L’informatique du bon sens nécessite plusieurs modes de représentation de la connaissance », explique Minsky. « Il est plus difficile de construire un ordinateur aide-ménager qu’un ordinateur joueur d’échecs, parce que l’aide-ménager doit gérer un plus grand nombre de situations. »1

Néanmoins, l’IA progresse rapidement et il est clair que cette technologie fera d’énormes progrès au cours de notre vie. Devrions-nous commencer à nous interroger sur la manière de l’intégrer dans nos portefeuilles ?
Les sociétés technologiques dominent de plus en plus les mouvements du marché boursier. En théorie, l’IA pourrait leur permettre de prendre encore plus de valeur.

L’enthousiasme soulevé par cette technologie a déjà fait grimper en flèche les valorisations et tout indique que cette tendance se poursuivra. Des études récentes prédisent que le volume du marché mondial de l’IA passera de 387,4 milliards de dollars en 2022 à 1,4 billion de dollars en 2029, soit un taux de croissance annuel composé de 20,1 % pour la période4.

Certains vont plus loin : ainsi, en mars 2023, les stratèges de Bank of America ont déclaré que l’IA était sur le point de connaître son « moment iPhone » et qu’elle allait changer le monde pour toujours. Selon eux, l’impact économique mondial de cette technologie en plein essor pourrait atteindre 15,7 billions de dollars d’ici à 20305.

Le logiciel ChatGPT, qui préfigure ce à quoi pourrait ressembler l’IAG, a déjà fait grimper la valeur d’OpenAI, la société qui l’a créé et en est propriétaire. OpenAI a vu le jour il y a 7 ans avec un capital de départ d’un milliard de dollars. Sa valorisation pourrait bientôt atteindre 29 milliards de dollars6.

Parallèlement, dans le cadre d’une expérience menée par le site de comparaison de produits financiers Finder.com, des analystes ont demandé à ChatGPT de créer un fonds théorique de plus de 30 actions, en suivant une série de principes d’investissement issus de fonds de premier plan. Au cours des 8 semaines qui ont suivi sa création, le portefeuille contenant les 38 valeurs sélectionnées par ChatGPT a progressé de 4,9 %, contre une perte moyenne de 0,8 % pour les 10 fonds les plus populaires sur la plateforme britannique Interactive Investor7.

ChatGPT pourrait-il gérer un portefeuille d’investissement mieux qu’un être humain ? « En tant que modèle de langage IA, je peux traiter et analyser de vastes quantités de données rapidement et efficacement », dit-il. « Je peux également fournir des recommandations basées sur des données historiques et les tendances du marché.

Cependant, en ce qui concerne la gestion d’un portefeuille d’investissement, il y a certaines limites à ce que je peux faire. Bien que je puisse analyser des données et fournir des informations, je n’ai ni émotions ni préjugés personnels qui peuvent influencer les décisions d’investissement. De plus, je n’ai pas la capacité de prendre en compte des facteurs externes tels que des événements mondiaux, des changements réglementaires ou des actualités inattendues qui peuvent avoir un impact sur les marchés.

De plus, l’investissement nécessite un degré de jugement et d’intuition difficile à reproduire dans un système d’IA. Les investisseurs humains peuvent prendre en compte des facteurs subjectifs tels que la culture de l’entreprise, son leadership et sa mission globale, qui ne peuvent pas être capturés dans des données quantitatives.

Par conséquent, bien que l’IA puisse certainement fournir des informations précieuses et des recommandations pour la gestion d’un portefeuille d’investissement, il existe encore des limites à ce qu’elle peut faire. Une approche hybride combinant les points forts de l’IA avec le jugement et l’intuition humains peut être la manière la plus efficace de gérer un portefeuille d’investissement. »
Les investisseurs sont sans nul doute très enthousiastes à l’idée de capitaliser sur les prochaines avancées de l’IAG. Microsoft a déjà confirmé un investissement de plusieurs milliards de dollars dans OpenAI, qui, selon les rumeurs, avoisinerait les 10 milliards de dollars.

Toutefois, cette technologie entraîne des répercussions bien plus vastes sur les investissements que quelques start-ups. Ceci pourrait, par exemple, avoir un impact sur la demande de fabricants de microprocesseurs, sur les matières premières utilisées dans la création du matériel, et sur la manière dont les grandes marques utilisent ces systèmes.

Les systèmes informatiques capables de penser comme des humains pourraient effectivement supprimer des emplois coûteux. Des constructeurs de voitures de luxe comme Lamborghini ou Ferrari pourraient potentiellement économiser des millions en utilisant un logiciel pour concevoir leurs derniers modèles plutôt que d’employer des équipes de conception.

Tout cela relève encore de l’imagination, cependant : l’IAG est loin d’être totalement au point et il reste à voir quelle forme celle-ci prendra à terme. Naturellement, certains investisseurs sont hésitants. Lors d’une table ronde organisée récemment dans le cadre de la Joint Multi-Conference on Human-Level Artificial Intelligence (HLAI)8, Tak Lo, investisseur en capital-risque, a ainsi déclaré : « J’aime beaucoup l’IA générale en tant qu’intellectuel, beaucoup moins en tant qu’investisseur. » Il n’est pas le seul.

Gordon Ritter, un autre investisseur en capital-risque, a récemment déclaré au Financial Times9 qu’il ne se laissait pas gagner par la fièvre de l’IA. « Tout le monde a les yeux qui brillent en pensant à ce qui pourrait arriver. Il y a un courant [d’opinion qui estime que l’IA] fera tout. Nous allons à l’encontre de ce courant. »

L’investissement dans les technologies abonde en échecs retentissants, et certains investisseurs se montreront naturellement méfiants face aux valorisations accordées aux sociétés. Il y a également des problèmes techniques très réels et coûteux à résoudre.

Il peut s’agir de combler les différences architecturales et les « fossés » concurrentiels entre les ensembles de données, qui varient également en termes de volume et de qualité. Néanmoins, construire quelque chose qui dépasse les limites spécifiques et étroites de certains secteurs d’activité, et qui peut apprendre et réfléchir en toute liberté, reste un défi.
Les paris sont ouverts. Les inquiétudes habituelles concernant les pertes d’emploi liées à la technologie sont bien présentes, mais cela va plus loin. Bientôt, en théorie, ce sont les professions hautement qualifiées qui pourraient être menacées plutôt que les simples tâches manuelles subalternes.

Les algorithmes ont déjà fait leurs preuves dans l’automatisation des investissements, permettant à certaines sociétés d’exécuter des transactions et des stratégies complètes une fois les données utiles analysées. De nouvelles applications basées sur l’IA sont en cours de développement et pourraient permettre une analyse encore plus poussée des données financières ainsi que, ironiquement, du comportement humain, ce qui en retour permettrait d’améliorer les marchés.

L’IA pourrait-elle bientôt remplacer la décision humaine à la fin de ce processus ? Est-il possible de reproduire cette capacité de discernement ? Alors que la gestion active se trouve sous les feux des critiques et que les données  qu’elle est souvent moins performante que la gestion passive, rien ne permet de supposer qu’un ordinateur ne pourrait pas faire mieux.

De même, l’IAG pourrait-elle gérer une société mieux qu’un PDG humain ? Un ordinateur PDG aurait-il moins de scrupules lorsqu’il s’agit de supprimer des emplois ? Ces questions en appellent d’autres, plus philosophiques. Qu’est-il possible de créer rien qu’avec l’IAG ? D’autres aspects de la condition humaine, tels que l’empathie 10 et d’autres émotions, sont-ils indispensables ?

La compréhension des émotions humaines est déjà une donnée calculée par des systèmes capables d’analyser instantanément le visage et le comportement d’une personne pour en déduire son état mental. Ainsi, Hume AI développe des outils qui mesurent les émotions simplement à partir des expressions verbales, faciales et vocales7.

De son côté, Affectiva a mis au point une technologie capable d’identifier les émotions à partir d’échantillons sonores de 1,2 seconde seulement7. Le domaine applicatif est déjà à l’étude pour les soins médicaux7.

Toutefois, un ordinateur peut-il développer une conscience ? C’est là que le débat devient plus incertain et commence à s’étendre aux domaines de la philosophie et de l’éthique. En 2021, un ingénieur de chez Google qui testait un chatbot d’IA a fait les gros titres en déclarant que le système était doué de conscience. Les deux ont conversé, échangé des plaisanteries et sont concrètement devenus amis11.

Cette nouvelle a toutefois rencontré un certain scepticisme. Michael Wooldridge, professeur d’informatique à l’université d’Oxford, a analysé les données et a constaté que, en dépit du réalisme impressionnant de ces interactions, il s’agissait essentiellement de l’IA telle que nous l’utilisons déjà. « Il n’y a pas de conscience », a déclaré Wooldridge. « Il n’y a pas de contemplation de soi, pas de conscience de soi. »8

Néanmoins, le potentiel de l’IA, que les résultats soient positifs et négatifs, continue d’enflammer l’imagination. Si les recherches pionnières de Geoffrey Hinton sur les réseaux neuronaux et sur l’apprentissage profond ont ouvert la voie à des initiatives similaires à ChatGPT, ses mises en garde ultérieures ont toutefois trouvé écho auprès de nombreux acteurs du secteur.

En effet, dans une lettre ouverte, des centaines de grands noms de la technologie, parmi lesquels Elon Musk, ont appelé les principaux laboratoires d’IA à faire une pause de 6 mois dans le développement de nouveaux systèmes superpuissants, estimant que les progrès récents de l’IA posaient « de graves risques pour la société et l’humanité ».12

Malgré cette pause, l’avancée de l’IA se poursuit et semble inéluctable : les progrès se poursuivront. Nous sommes peut-être encore loin de l’IAG telle qu’elle apparaît dans la science-fiction, mais la technologie ne cesse d’évoluer et de s’améliorer. Les conséquences peuvent être très intéressantes à l’échelle d’un portefeuille, et offrent une multitude de possibilités aux investisseurs.

Une diversité de grands esprits source de grandes idées.

Bienvenue à The Expert Collective

GLOSSAIRE
  • Intelligence artificielle (IA): l’intelligence artificielle est la simulation des processus d’intelligence humaine par des machines, en particulier des systèmes informatiques. Les applications spécifiques de l’IA incluent les systèmes experts, le traitement du langage naturel, la reconnaissance vocale et la vision artificielle.
  • Intelligence artificielle générale (IAG): également appelée « IA forte », l’IAG est l’intelligence hypothétique d’une machine qui a la capacité de comprendre ou d’apprendre toute tâche intellectuelle dont est capable un humain. L’IAG, qui est l’objectif premier de certaines recherches sur l’IA, est un thème commun à la science-fiction et à la futurologie.
  • Chatbot: abréviation de « chatterbot ». Il s’agit de programmes informatiques simulant une conversation humaine par l’intermédiaire de commandes vocales ou de discussions textuelles, ou les deux.
  • Apprentissage profond (Deep Learning): également appelé « réseau neuronal profond » ou RNP, l’apprentissage profond fait partie d’une famille plus large de méthodes d’« apprentissage automatique » basées sur l’apprentissage de représentations de données, par opposition à des algorithmes, qui permettent de résoudre une tâche spécifique. Les réseaux neuronaux sont une série d’algorithmes qui s’efforcent de reconnaître les relations sous-jacentes dans un ensemble de données à l’aide d’un processus qui imite le fonctionnement du cerveau humain. L’apprentissage profond analyse les données en utilisant plusieurs couches d’apprentissage (d’où le qualificatif de « profond »). Il peut commencer en apprenant des concepts plus simples, puis les combiner pour en apprendre davantage sur des concepts plus complexes et des notions abstraites.
  • IA Générative: rendue célèbre par des chatbots générateurs de texte tels que ChatGPT, l’IA générative est une technologie conversationnelle capable d’analyser de grandes quantités de données. Cependant, elle ne peut accomplir que ce pour quoi elle a été programmée, ce qui la différencie de l’IAG. L’accessibilité immédiate de l’IA générative la distingue toutefois de toutes les IA qui l’ont précédée. En effet, les utilisateurs n’ont pas besoin d’être qualifiés en apprentissage automatique pour interagir avec elle ou l’utiliser de façon productive. Pratiquement toute personne capable de poser des questions peut s’en servir. Celle-ci offre des capacités couvrant un large éventail de contenus, dont des images, des vidéos, des sons et du code informatique. Elle peut également remplir plusieurs fonctions au sein des entreprises, notamment classer, éditer, résumer, répondre à des questions et rédiger de nouveaux contenus.
  • Apprentissage automatique: l’apprentissage automatique (ou Machine Learning) est une branche de l’IA qui permet aux systèmes informatiques d’apprendre directement à partir d’exemples, de données et d’expériences. De plus en plus utilisé pour le traitement des « mégadonnées », l’apprentissage automatique est le concept selon lequel un programme informatique peut apprendre et s’adapter à de nouvelles données sans intervention humaine. Il permet aux algorithmes intégrés d’un ordinateur de rester à jour, quels que soient les changements dans l’économie mondiale.
  • Traitement du langage naturel (TLN): un sous-domaine de l’informatique, de l’ingénierie informatique et de l’intelligence artificielle qui s’intéresse aux interactions entre les ordinateurs et les langues humaines (naturelles), et notamment à la manière de programmer les ordinateurs afin qu’ils traitent et analysent de grandes quantités de données en langue naturelle. Il s’agit de l’un des outils utilisés par Siri, l’assistant numérique à reconnaissance vocale. Ces systèmes tentent de permettre aux ordinateurs de comprendre la parole humaine, qu’elle soit écrite ou orale. Les premiers modèles étaient basés sur des règles ou sur la grammaire, mais avaient du mal à gérer les mots omis ou les erreurs (fautes de frappe).
1 Source: https://www.goodreads.com/quotes/1228197-by-far-the-greatest-danger-of-artificial-intelligence-is-that
2 Source: https://www.bbc.com/news/world-us-canada-65452940
3 Source: cerebromente.org.br/n07/opiniao/minsky/minsky_i.htm
4 Source: www.statista.com/statistics/1365145/artificial-intelligence-market-size/
5 Source: https://www.businessinsider.in/stock-market/news/artificial-intelligence-is-on-the-brink-of-an-iphone-moment-and-can-boost-the-world-economy-by-15-7-trillion-in-7-years-bank-of-america-says/articleshow/98340748.cms
6 Source: https://www.wsj.com/articles/chatgpt-creator-openai-is-in-talks-for-tender-offer-that-would-value-it-at-29-billion-11672949279
7 Source: www.igniteseurope.com/c/4048004/523194/chatgpt_powered_strategy_outperforms_leading_funds?referrer_module=sideBarHeadlines&module_order=4
8 Source: https://futurism.com/artificial-general-intelligence-governments-invest
9 Source: https://www.ft.com/content/5671094e-6b09-43a2-9a11-7bc19f382793
10 Source: https://www.wired.co.uk/article/empathy-artificial-intelligence
11 Source: https://www.theguardian.com/technology/2022/aug/14/can-artificial-intelligence-ever-be-sentient-googles-new-ai-program-is-raising-questions
12 Source: https://time.com/6266679/musk-ai-open-letter/


Le présent document est fourni à titre informatif uniquement, et ne doit pas être interprété comme un conseil en investissement. Les opinions exprimées dans le présent article à la date indiquée sont susceptibles de changer et nous ne pouvons pas garantir que les évolutions seront conformes aux prévisions de cet article.