L’année 2022 s’est révélée difficile financièrement pour les grandes entreprises technologiques américaines. Cela ne les a cependant pas empêchées de mettre sur le marché des produits dotés des dernières avancées en matière d’intelligence artificielle (IA). Compte tenu du contexte financier, certains ont souligné que, au vu du battage médiatique dont raffole ce secteur, l’engouement pour l’IA pourrait bien n’être qu’un feu de paille. Ce serait pourtant gravement sous-estimer l’impact potentiel de ces innovations.

Carmine de Franco

Carmine de Franco

Head of Research and ESG
Ossiam
Les transformations technologiques profondes sont souvent initialement reçues avec scepticisme et résistance, car il est généralement supposé qu’elles détruiront des emplois. Et c’est vrai, il s’agit clairement d’une possibilité avec l’IA. »
L’IA n’a rien de nouveau. La théorie qui sous-tend cette technologie s’est développée depuis les années 1950, lorsqu’Alan Turing a conçu le Test dit « de Turing »1, destiné à évaluer objectivement la capacité d’une machine à adopter un comportement intelligent. Celle-ci a ensuite alterné les périodes d’euphorie suite à des avancées majeures en mathématiques et en informatique et les phases de dépression (tout comme les cycles de financement de la recherche fondamentale).

Il semblerait que les derniers mois aient été porteurs d’importants progrès dans ce domaine, notamment en matière de grands modèles de langage (LLM) comme ceux qui sont à la base de ChatGPT, le chatbot développé par OpenAI, une société spécialisée dans la recherche en intelligence artificielle basée à San Francisco, qui a réussi le test de Turing mentionné précédemment. Si les théories mathématiques qui sous-tendent ces modèles (le théorème d’approximation universelle2) ont bien été validées il y a 33 ans, en 1989, il a cependant fallu 30 ans à ce secteur pour surmonter les trois facteurs les plus importants et les plus restrictifs :
  • La fonction Zeta ou la data: pour apprendre, ces modèles ont besoin de très grands ensembles de données, qui sont relativement rares sous une forme structurée. Or, Internet permet désormais d’exploiter d’énormes volumes de données pour « former » des algorithmes, c’est-à-dire des séquences d’instructions rigoureuses utilisées pour effectuer des calculs, des estimations et des traitements de données, pour effectuer des tâches spécifiques (telles que les LLM).
  • La puissance de calcul : aujourd’hui, les ordinateurs sont suffisamment puissants pour gérer cet apprentissage et exécuter ces algorithmes.
  • Le Cloud (un ensemble distribué de serveurs qui hébergent des logiciels et des infrastructures) et les semi-conducteurs (des matériaux qui ont une valeur de conductivité électrique qui se situe entre celle d’un conducteur, comme le cuivre, et celle d’un isolant, comme le verre) : compte tenu de la quantité de données et de la puissance requises, seules des infrastructures Cloud très vastes et efficaces, équipées de microprocesseurs avancés, sont capables de fournir l’environnement adapté pour construire et former ces algorithmes.
Pour la société en général, et pour les investisseurs en particulier, il est important de comprendre comment la technologie fonctionne, interagit et influence les économies, les entreprises, les institutions et plus généralement, nos modes de vie. S’il est impossible de savoir avec certitude comment évoluera cette technologie, deux transformations technologiques profondes dans l’histoire récente peuvent fournir quelques pistes et aider les investisseurs à optimiser les opportunités qui ne manqueront pas de se présenter, sans succomber à l’effet de mode : les gains de productivité et l’émergence de nouvelles idées.

La première chose qui vient à l’esprit lorsque l’on pense à l’IA est la productivité, plus précisément l’impact potentiel que l’IA pourrait avoir sur l’emploi et les gains de productivité. Bien que la relation entre les améliorations technologiques et la productivité soit bien comprise, elle n’apparaît pas toujours dans les données économiques.

L’économiste Robert Solow, lauréat du prix Nobel, a ainsi déclaré que l’ère de l’informatique était visible partout, sauf dans les statistiques de productivité3. L’enthousiasme suscité par les ordinateurs personnels était supposé porter la productivité des économies occidentales à des niveaux plus élevés et, par conséquent, augmenter leur taux de croissance. Cette hausse de la productivité a effectivement eu lieu au cours des deux ou trois décennies suivantes, sans toutefois réellement relever le taux de croissance du PIB4. Quelle est donc la différence cette fois-ci ?

D’une part, nous pouvons espérer que l’automatisation des tâches rendra les emplois plus productifs, libérant les ressources humaines pour des tâches à plus forte valeur ajoutée, ce qui permettra d’augmenter la production économique et les salaires. Néanmoins, les transformations technologiques profondes sont souvent initialement reçues avec scepticisme et résistance, car il est supposé qu’elles détruiront des emplois. Il s’agit clairement d’une possibilité dans le cas de l’IA.

Toutefois, les luddites modernes ou « briseurs de machine » pourraient bien être les cols blancs du secteur des services. L’idée que les perturbations technologiques suppriment des emplois et des modes de vie est aussi vieille que le capitalisme lui-même. Par ailleurs, comme l’explique le professeur Shiller dans son livre « Narrative Economics », bien qu’elles ne soient validées par aucune donnée scientifique, ces idées sont difficiles à combattre et resurgissent régulièrement dans le débat public. Les histoires de personnes qui perdent leur emploi et dont les perspectives s’assombrissent sont trop proches de nous pour être ignorées par les agents économiques (ménages/individus/consommateurs, entreprises, gouvernements et banques centrales), si bien que l’IA pourrait être accueillie avec autant d’appréhension que d’enthousiasme.
Un rapport de McKinsey5 estime que le passage du cheval à l’automobile au début du XXe siècle avait permis la création de plus de 6 millions d’emplois entre 1910 et 1950 (dans le secteur pétrolier et l’industrie manufacturière, mais aussi au sein des services automobiles, des stations-service et du secteur de la publicité). Sans compter les milliers d’entreprises qui sont apparues grâce à la généralisation de l’automobile.

Néanmoins, un rapport du Bureau du recensement des États-Unis6, publié juste après la Grande dépression des années 1930, a pointé du doigt le passage du cheval à l’automobile comme l’un des principaux facteurs aggravants de la crise, avec des implications pour le secteur agricole (qui a perdu ses meilleurs clients, les chevaux !), les marchés alimentaires (qui ont subi une baisse continue des prix alors que la production agricole tentait de trouver de nouveaux débouchés) et les banques régionales (dont les clients ont vu leurs marges7 réduites et dont beaucoup ont fait faillite), avant de finalement s’étendre à d’autres secteurs et au marché du travail dans son ensemble. Au total, il s’agirait d’une perte de 13 millions d’emplois.

Avec l’IA, nous ignorons encore comment la technologie sera adoptée et quels seront les impacts sur le marché du travail. Le consensus est que l’adoption sera probablement lente, tout comme ses effets. Cela tient partiellement au fait qu’il est très difficile de réorganiser les entreprises en vue de maximiser le potentiel de l’IA : équiper les vendeurs d’automobiles plutôt que de chevaux pour augmenter les ventes n’est pas exactement la même chose que de réorganiser des secteurs complexes pour mieux tirer parti de l’IA. En outre, une part importante de nos économies est constituée de secteurs qu’il sera difficile de réorganiser (notamment le secteur médical, l’éducation, l’hôtellerie, les arts ou les sports) pour permettre à l’IA d’accroître leur productivité. Il s’agit de secteurs importants de l’économie, et leur productivité compte.

Sur un ton plus optimiste, des recherches récentes8 sur les technologies de rupture nous montrent qu’il est possible d’imaginer des changements de productivité suivant une « courbe en J », c’est-à-dire une tendance qui commence par une chute brutale suivie d’une hausse spectaculaire. Plus précisément, avant que la technologie ne puisse produire des résultats positifs, les entreprises doivent investir le temps et l’argent nécessaires pour déployer ces outils et former leur personnel à les utiliser efficacement. Cet apprentissage est quant à lui susceptible de réduire la productivité des salariés, qui consacreront du temps à des activités non productives. Ce n’est qu’à ce moment-là que l’on pourra s’attendre à des gains économiques et à une hausse de la productivité.
Si la productivité n’est pas le bon angle pour appréhender l’IA, nous pourrions l’envisager à travers le prisme de la technologie « habilitante ». Plutôt que de faire ce que nous faisons actuellement, plus rapidement et en l’améliorant (ce qui est encore possible dans certains cas), l’IA pourrait faciliter la mise en œuvre de nouveaux services pour lesquels les utilisateurs seraient prêts à payer à l’avenir, ce qui conduirait à l’émergence de nouvelles entreprises capables de fournir ces services. Dans ce cas, l’impact de l’IA ne s’apparenterait pas à celui de l’automobile, mais plutôt à celui de l’électricité.

L’invention de l’électricité a été une avancée révolutionnaire dans l’histoire de l’humanité. Celle-ci a également permis de développer de nouveaux services qu’il était impossible d’imaginer auparavant, ce qui est encore le cas. La transformation a été colossale et pourtant, rien qu’en termes de création d’emplois, l’impact de l’électrification n’a pas été aussi important que le passage du cheval à l’automobile. Le résultat est qu’aujourd’hui, nous ne remarquons à quel point notre vie en dépend qu’en cas de panne d’électricité.

La révolution de l’IA pourrait-elle avoir le même impact que l’électrification ? Plus précisément, l’IA est-elle un nouvel exemple de « technologie à usage général » (General-Purpose Technology ou GPT en anglais, à ne pas confondre avec le GPT de ChatGPT) ? Ces avancées technologiques permettent une hausse généralisée de la productivité, et favorisent l’essor de nouveaux services et secteurs d’activité. Pour être considérée comme une « GPT »9, une technologie doit :
  • Être utilisée dans différents secteurs, ce qui est probablement le cas pour l’IA.
  • Pouvoir être continuellement améliorée, ce qui est une caractéristique fondamentale de l’IA.
  • Avoir le potentiel de mener à l’introduction d’innovations sectorielles, ce que l’on considère aussi comme s’appliquant à l’IA.
Si tel est le cas, les gains économiques (et les opportunités financières pour les investisseurs) pourraient provenir, pas nécessairement des fournisseurs d’outils d’IA, mais de nouvelles entreprises axées sur l’IA et créées pour répondre à des besoins sectoriels spécifiques. Comme pour Internet, l’innovation favorisée par le Web, lui-même né de besoins militaires, a permis à de nouvelles sociétés de se développer (par exemple Meta, anciennement Facebook) uniquement après que les technologies intermédiaires aient été déployées à grande échelle (dans le cas présent, les réseaux mobiles rapides et les smartphones). En fin de compte, ce sont des sociétés comme Meta qui ont été capables de récolter les avantages financiers de la technologie de base (Internet), alors que celles qui fournissent l’outil permettant d’utiliser Internet (comme les opérateurs de réseaux ou les éditeurs de logiciels de navigation) n’en ont pas autant tiré profit10.

Un autre indice qui confirme l’hypothèse de la technologie à usage général semble être le fait que les applications basées sur l’IA ont jusqu’à présent été relativement conviviales pour les utilisateurs. Contrairement à l’informatique quantique, par exemple, l’explosion des cas d’utilisation de l’IA, de même que la facilité et la rapidité avec lesquelles le public s’y habitue sont évidentes. Songez à la vitesse avec laquelle ChatGPT a été adopté dès les premiers mois de son lancement. On estime qu’il comptait 100 millions d’utilisateurs actifs mensuels en janvier 2023, soit deux mois seulement après sa mise en ligne, ce qui en fait l’application grand public avec la croissance la plus rapide de l’histoire11.
L’idée que l’IA entraînera des gains de productivité et une refonte des méthodes de travail des entreprises pourrait, en théorie, favoriser des valorisations plus élevées pour les années à venir. Qui plus est, les entreprises peuvent disposer d’énormes quantités de données précieuses sur leurs clients, ce qui pourrait représenter un potentiel encore plus important si elles étaient exploitées pour améliorer les ventes, par exemple.

Enfin, certains affirment que, contrairement aux actifs fixes (terrains, bâtiments, équipements) qui se déprécient à mesure qu’ils deviennent obsolètes, avec des outils basés sur l’IA, les actifs peuvent s’améliorer et prendre de la valeur avec le temps. La baisse du taux d’amortissement, voire son arrêt complet, permettrait d’accroître considérablement la rentabilité et, par conséquent, les rendements.

Cela ne pourrait se produire que si les entreprises adoptaient la révolution de l’IA et réorganisaient leurs activités afin de placer les données au cœur de leurs processus. Ce n’est pas chose aisée, car les données de nombreuses entreprises sont encore recueillies et stockées sous des formats différents, par des équipes différentes et dans des services différents. L’exploitation de ces informations exigera donc du temps, des investissements et des compétences spécifiques, trois éléments qui ne favorisent généralement pas les valorisations à court terme.

Dès lors, il n’est pas surprenant qu’en dehors des grands noms du secteur technologique américain (Nvidia, Microsoft, Meta, Google), la plupart des entreprises ne s’y risquent pas, notamment les plus petites qui ne disposent généralement pas des compétences ni des capitaux requis pour investir dans ces technologies. Pourtant, l’IA pourrait en théorie leur permettre d’être compétitives dans des domaines qui leur étaient jusque-là interdits, tels que les activités juridiques, de conformité, de marketing ou de conseil.

Pour ces entreprises, une part importante des objectifs nécessite du temps et des ressources, ce qui, de facto, les prive de positionnement concurrentiel. Dans un avenir (pas si lointain) où l’on pourra compter sur l’IA pour accomplir ces tâches, les idées, la créativité et la personnalisation pourraient prendre plus d’importance dans le processus de création de valeur de ces entreprises que les simples ressources.

La principale question pour les investisseurs est de savoir si l’IA deviendra l’atout majeur d’un nombre limité d’entreprises technologiques (aux États-Unis et en Chine principalement), majoritairement au bénéfice de leurs investisseurs (bien que certaines retombées positives ne puissent être exclues, comme le rôle des réseaux sociaux dans la stratégie B2C, (visant les particuliers, de nombreuses petites entreprises). D’autre part, en tant que technologie à usage général, celle-ci pourrait avoir de vastes répercussions économiques et les gagnants de demain ne seront pas nécessairement les protagonistes d’aujourd’hui. La thèse d’investissement pour les deux scénarios n’est pas la même et le choix du mauvais scénario pourrait avoir d’importantes conséquences pour les investisseurs.
Alors que nous essayons de définir les lignes de développement potentielles de l’IA, nous devons également tenir compte de l’impact qu’aura la réglementation.

Historiquement, la loi suit l’introduction des grandes inventions et du progrès, notamment dans le domaine technologique. La société en tire des enseignements et, parfois, en subit les conséquences négatives. Ainsi, de nouvelles règles sont mises en place pour orienter leur utilisation dans l’intérêt collectif, tout en limitant, voire en annulant, leur impact néfaste.

Un exemple clair est fourni par le corpus toujours croissant de normes de sécurité dans des technologies telles que l’informatique ou l’électricité. Rien ne laisse supposer que la situation changera avec l’IA, même si de nombreuses voix s’élèvent pour réclamer une réglementation avant que la technologie puisse être déployée à grande échelle.

L’objectif d’une réglementation préventive est, dans l’esprit de beaucoup, d’éviter les scénarios de type « le vainqueur remporte tout ». Cela a notamment été le cas avec les réseaux sociaux, pour lesquels la réglementation mise en œuvre trop tardivement est aujourd’hui devenue difficile à appliquer compte tenu de l’infrastructure existante. Les objectifs seront très vastes, en commençant par ce que l’IA sera autorisée à faire pour s’étendre à celui qui sera responsable de ses actes au bout du compte ; de la propriété des résultats des outils basés sur l’IA à l’accès aux données et aux algorithmes ; de la création de fake news à l’exploitation de faux contenus.

Les États-Unis et le Royaume-Uni ont adopté une position attentiste en matière de réglementation, avec l’idée qu’il faut d’abord voir comment les outils d’IA sont utilisés et déployés, et acquérir une meilleure connaissance des risques qu’ils présentent et d’autres questions, comme la propriété et la responsabilité. L’objectif est de mettre en place une réglementation progressive qui devrait théoriquement traiter les problèmes à mesure qu’ils surviennent. Cette approche présente une volonté claire d’encourager le développement des écosystèmes d’IA (des entreprises aux services et à d’autres utilisations). Les critiques pourraient remarquer que cette stratégie du « laissez-faire », si elle ne débouche sur aucune mesure prise en temps voulu, peut échouer à maîtriser les conséquences négatives et involontaires (parfois appelées « externalités »), qui peuvent conduire à des inexactitudes factuelles, au racisme systémique, à la désinformation politique, etc.

À l’autre bout du spectre, la Chine adopte une position relativement ferme sur le monde de l’IA, avec pour objectif clair de contrôler l’ensemble de la chaîne de valeur (des données aux algorithmes en passant par les utilisations et les applications finales). Son approche conservatrice et plutôt restrictive serait principalement motivée par des raisons géopolitiques et de stabilité interne.

L’UE est à la frontière entre les deux, et tente de trouver un équilibre entre la nécessité de veiller à ce que l’IA soit déployée et utilisée de manière responsable, et celle de permettre aux entreprises d’innover et d’explorer les domaines d’application de l’IA pour y trouver des opportunités économiques.

L’un des volets les plus importants de la réglementation portera probablement sur la propriété des données. Comme les modèles modernes ont besoin d’énormes quantités de données pour être formés, Internet, avec toutes ses ressources et son contenu, est l’endroit habituel pour les connecter. Toutefois, si les données sur Internet sont accessibles au public, cela n’implique pas qu’elles soient libres d’utilisation.
En outre, les personnes dont les données sont utilisées à ces fins pourraient avoir un jour envie de les monétiser. Après tout, former quelqu’un (l’IA) ou produire des matériaux (les données) qui serviront de base d’apprentissage est un métier aussi vieux que l’histoire de l’humanité et, à l’exception de rares cas, il s’agit encore d’un travail rémunéré12, appelé enseignement. Il pourrait donc y avoir des conflits entre ceux qui possèdent les données et ceux qui les utilisent pour former leurs modèles13.

Sur le même thème, bien qu’Internet soit, pour de nombreuses applications pratiques, effectivement infini, le volume de données de bonne qualité n’augmente pas aussi vite que les besoins des algorithmes les plus sophistiqués. Certains affirment que les données de bonne qualité pourraient être épuisées d’ici à 202614. Il s’agit bien entendu de projections qui ne tiennent pas compte des améliorations potentielles des techniques de formation. Néanmoins, nous prenons peu à peu conscience que les gains d’efficacité de l’IA pourraient être limités par ses besoins en puissance et en données, ces deux éléments n’étant pas capables de croître au rythme exigé.
Alors que nous essayons d’envisager les implications potentielles du déploiement de l’IA à grande échelle (les inconnues connues), nous devrions également tenir compte des éventuelles externalités négatives que pourrait engendrer l’IA. En général, ces conséquences sont plus difficiles à déterminer (les inconnues inconnues) et nous sommes souvent surpris par les développements négatifs d’avancées technologiques authentiquement positives.

Le meilleur exemple était l’espoir que les discussions ouvertes et l’interaction apportées par Internet deviendraient, au fil du temps, des facteurs clés grâce auxquels la démocratie, la liberté et la confiance se généraliseraient. Internet était censé garantir inévitablement l’exactitude des informations et la responsabilité.

Bien que ce qui précède est en partie vrai (après tout, des informations de bonne qualité sont librement accessibles sur Internet), il s’est avéré que la polarisation, la méfiance, la propagande et les mensonges purs et simples (les fake news) sont devenu un fléau ordinaire de l’ère d’Internet. Plus problématique encore, la capacité de générer des contenus qui semble d’origine humaine, notamment des voix et des images (les « deep fakes »), a clairement le potentiel de perturber les processus établis qui gouvernent nos vies, comme le processus démocratique et les élections.

Dans le domaine militaire, le recours accru à l’IA et aux armes pilotables à distance soulève un certain nombre d’interrogations complexes, notamment dans quelle mesure les humains doivent garder le contrôle et être tenus responsables de leur utilisation et, plus important encore, sur le processus de décision lui-même.
Ossiam est une société affiliée à Natixis Investment Managers et fait partie de notre collectif d’experts.

Une diversité de grands esprits source de grandes idées.

Bienvenue à The Expert Collective

GLOSSAIRE
  • Intelligence artificielle (IA) : l’intelligence artificielle est la simulation des processus d’intelligence humaine par des machines, en particulier des systèmes informatiques. Les applications spécifiques de l’IA incluent les systèmes experts, le traitement du langage naturel, la reconnaissance vocale et la vision artificielle.
  • Chatbot : abréviation de « chatterbot ». Il s’agit de programmes informatiques simulant une conversation humaine par l’intermédiaire de commandes vocales ou de discussions textuelles, ou les deux.
  • Deep Learning : également appelé « réseau neuronal profond » ou RNP, l’apprentissage profond fait partie d’une famille plus large de méthodes d’« apprentissage automatique » basées sur l’apprentissage de représentations de données, par opposition à des algorithmes, qui permettent de résoudre une tâche spécifique. Les réseaux neuronaux sont une série d’algorithmes qui s’efforcent de reconnaître les relations sous-jacentes dans un ensemble de données à l’aide d’un processus qui imite le fonctionnement du cerveau humain. L’apprentissage profond analyse les données en utilisant plusieurs couches d’apprentissage (d’où le qualificatif de « profond »). Il peut commencer en apprenant des concepts plus simples, puis les combiner pour en apprendre davantage sur des concepts plus complexes et des notions abstraites.
  • IA Générative : rendue célèbre par des chatbots générateurs de texte tels que ChatGPT, l’IA générative est une technologie conversationnelle capable d’analyser de grandes quantités de données. Cependant, elle ne peut accomplir que ce pour quoi elle a été programmée, ce qui la différencie de l’IAG. L’accessibilité immédiate de l’IA générative la distingue toutefois de toutes les IA qui l’ont précédée. En effet, les utilisateurs n’ont pas besoin d’être qualifiés en apprentissage automatique pour interagir avec elle ou l’utiliser de façon productive. Pratiquement toute personne capable de poser des questions peut s’en servir. Celle-ci offre des capacités couvrant un large éventail de contenus, dont des images, des vidéos, des sons et du code informatique. Elle peut également remplir plusieurs fonctions au sein des entreprises, notamment classer, éditer, résumer, répondre à des questions et rédiger de nouveaux contenus.
  • Apprentissage automatique : l’apprentissage automatique (ou Machine Learning) est une branche de l’IA qui permet aux systèmes informatiques d’apprendre directement à partir d’exemples, de données et d’expériences. De plus en plus utilisé pour le traitement des « big data », l’apprentissage automatique est le concept selon lequel un programme informatique peut apprendre et s’adapter à de nouvelles données sans intervention humaine. Il permet aux algorithmes intégrés d’un ordinateur de rester à jour, quels que soient les changements dans l’économie mondiale.
  • Traitement du langage naturel (TLN) : un sous-domaine de l’informatique, de l’ingénierie informatique et de l’intelligence artificielle qui s’intéresse aux interactions entre les ordinateurs et les langues humaines (naturelles), et notamment à la manière de programmer les ordinateurs afin qu’ils traitent et analysent de grandes quantités de données en langue naturelle. Il s’agit de l’un des outils utilisés par Siri, l’assistant numérique à reconnaissance vocale. Ces systèmes tentent de permettre aux ordinateurs de comprendre la parole humaine, qu’elle soit écrite ou orale. Les premiers modèles étaient basés sur des règles ou sur la grammaire, mais avaient du mal à gérer les mots omis ou les erreurs (fautes de frappe).
  • Informatique quantique : l’informatique quantique est un mode de calcul qui exploite les propriétés collectives des états quantiques (basées sur la mécanique quantique), telles que le principe de superposition, d’interférence et d’intrication. Les dispositifs qui réalisent des calculs quantiques sont connus sous le nom d’ordinateurs quantiques, également appelés superordinateurs ou supercalculateurs.
1 Source: McKinsey, 2018, Is the Solow Paradox back?, https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/is-the-solow-paradox-back
2 Source: Le taux de variation annuel moyen du produit intérieur brut (PIB) aux prix du marché, en monnaie locale constante, pour une économie nationale donnée, au cours d'une période déterminée.
3 Source: McKinsey, 2018, Is the Solow Paradox back?, https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/is-the-solow-paradox-back
4 Source: Le taux de variation annuel moyen du produit intérieur brut (PIB) aux prix du marché, en monnaie locale constante, pour une économie nationale donnée, au cours d'une période déterminée.
5 Source: McKinsey Global Institute (2017), “Jobs lost, jobs gained: Workforce transition in a time of automation.”
6 Source: Greene, A.N. (2008), “Horses at work”, Harvard University Press.
7 Le rapport entre le bénéfice d'une entreprise et son chiffre d'affaires.
8 Source: Brynjolfsson, Rock and Chad Syverson (2017), “Artificial intelligence and the modern productivity paradox: a clash of expectations and statistics”, NBER.
9 Source: Bresnahan and Trajtenberg (1995), “General purpose technologies ‘Engines of growth’?”, Journal of Econometrics, Volume 65, Issue 1, Janvier 1995, Pages 83-108.
10 Source: Les navigateurs web sont aujourd'hui pour la plupart gratuits ou open source. Aucune entreprise n'a réussi à gagner de l'argent avec, à l'exception de Microsoft qui l'associe à d'autres logiciels payants.
11 Source: Reuters, Février 2023, https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/
12 Source: Les philosophes grecs de l'Antiquité, Platon et Aristote, étaient des professeurs particuliers bien rémunérés. Socrate était une exception car il ne faisait apparemment pas payer ses enseignements.
13 Source: https://www.reuters.com/legal/getty-images-lawsuit-says-stability-ai-misused-photos-train-ai-2023-02-06/
14 Source: https://epochai.org/blog/will-we-run-out-of-ml-data-evidence-from-projecting-dataset

La mise à disposition de ce document ou la référence à des titres, secteurs ou marchés spécifiques dans ce document ne constituent pas des conseils ou des recommandations d’investissement ni une offre d’achat ou de vente d’un titre, ni une offre d’activité financière réglementée. Les investisseurs doivent dûment tenir compte des objectifs d’investissement, des risques et des dépenses de tout investissement avant d’investir. Les analyses, opinions, et certains des thèmes et processus d’investissement contenus dans le présent document reflètent uniquement les opinions du ou des gestionnaire(s) de portefeuille à la date indiquée. Ces informations, de même que la composition du portefeuille et les caractéristiques indiquées, sont susceptibles de changer. Rien ne garantit que les évolutions seront conformes aux prévisions du présent document. Les analyses et opinions exprimées par des tiers externes sont indépendantes et ne reflètent pas nécessairement celles de Natixis Investment Managers. Les informations concernant les performances passées ne garantissent en aucun cas les résultats futurs.