Für große US-Technologiekonzerne war 2022 finanziell ein schwieriges Jahr. Dennoch haben sie eifrig Produkte auf den Markt gebracht, die die neuesten Entwicklungen auf dem Gebiet der künstlichen Intelligenz (KI) enthalten. Angesichts der finanziellen Rahmenbedingungen vermuten manche – weil der Sektor bekanntlich dazu neigt, zu viel Wirbel zu machen –, die Begeisterung für KI könnte rasch abflauen. Doch es wäre ein Fehler, die potenziellen Auswirkungen dieser Innovationen zu unterschätzen.

Carmine de Franco

Carmine de Franco

Head of Research and ESG
Ossiam
Tiefgreifender technischer Wandel stößt in der Regel zunächst auf Skepsis und Widerstand, weil viele davon ausgehen, dass er Arbeitsplätze vernichtet. Und das könnte bei KI sicherlich der Fall sein.“
KI ist nichts Neues. An der Theorie dahinter wird schon seit den 1950er-Jahren gearbeitet, als Alan Turing erstmals seinen Turing-Test1 vorstellte, der dazu diente, objektiv einzuschätzen, ob sich eine Maschine intelligent verhalten kann. Nach Durchbrüchen in Mathematik und Informatik hat KI aufregende Zeiten erlebt, aber auch deprimierende (ebenso wie zyklische Entwicklungen bei der Finanzierung der Grundlagenforschung).

Möglicherweise ist der Eindruck entstanden, uns hätten die letzten Monate auf diesem Gebiet maßgeblich vorangebracht – vor allem im Bereich der großen Sprachmodelle (Large Language Models oder LLMs), wie sie ChatGPT zugrunde liegen: dem von dem KI-Forschungsunternehmen OpenAI aus San Francisco entwickelten Chatbot, der den erwähnten Turing-Test bestand. Doch die mathematischen Grundlagen für diese Modelle (das universelle Approximationstheorem2) wurden bereits 33 Jahre zuvor bewiesen – nämlich 1989 –, und es dauerte 30 Jahre, bis die Branche die drei wesentlichsten und einschränkenden Faktoren überwand:
  • Daten: Das Trainieren dieser Modelle erfordert gewaltige Datensätze, die in strukturierter Form relativ selten sind. Das Internet bietet inzwischen aber eine Möglichkeit, enorme Datenmengen anzuzapfen, um Algorithmen – eine Folge mathematisch rigoroser Anweisungen zur Durchführung von Berechnungen, Kalkulationen und Datenverarbeitung – für bestimmte Aufgaben (wie eben LLMs) zu trainieren.
  • Rechenleistung: Heutzutage sind Maschinen so leistungsfähig, dass Training und Einsatz solcher Algorithmen zu bewältigen sind.
  • Cloud* und Halbleiter**: Angesichts der dafür benötigten Daten- und Energiemengen können nur riesengroße, effiziente Cloud-Infrastrukturen mit hoch entwickelten Chips das richtige Umfeld bieten, um solche Algorithmen zu entwickeln und zu trainieren.
* Eine verteilte Ansammlung von Servern, auf denen Software und Infrastruktur laufen.
** Werkstoffe, deren elektrische Leitfähigkeit zwischen der eines Leiters wie Kupfer und der eines Isolators wie Glas liegt.


Für die ganze Gesellschaft und insbesondere Anleger ist es wichtig zu verstehen, wie die Technologie funktioniert, interagiert und die Volkswirtschaften, Unternehmen, Institutionen sowie unser Leben ganz allgemein beeinflusst. Wie sich diese Technologie weiterentwickelt, kann niemand mit Sicherheit sagen, doch zwei grundlegende technische Veränderungen der jüngeren Geschichte könnten gewisse Anhaltspunkte bieten und Anlegern helfen, die sicherlich entstehenden Chancen besser zu nutzen und sich dabei dem Hype zu entziehen: Produktivitätssteigerungen und die Ermöglichung neuer Ideen.

Der erste Gedanke zum Thema KI gilt der Produktivität – genauer gesagt, den potenziellen Folgen von KI für Arbeitsmarkt und Produktivitätssteigerung. Die Beziehung zwischen technischem Fortschritt und Produktivität ist hinreichend bekannt, schlägt sich jedoch nicht immer in den Wirtschaftsdaten nieder.

Der Ökonom und Wirtschaftsnobelpreisträger Robert Solow sagte bekanntlich, man könne das Computerzeitalter überall wahrnehmen, nur nicht in der Produktivitätsstatistik.3 In der ersten großen Begeisterung über den PC dachten viele, er würde die Produktivität westlicher Volkswirtschaften auf eine neue Stufe heben und dadurch auch deren Wachstumsraten in die Höhe treiben. Diese Produktivitätssteigerung trat zwar über die folgenden 20 bis 30 Jahre tatsächlich ein, konnte die BIP-Wachstumsrate aber kaum erhöhen.4 Was ist dieses Mal also anders?

Einerseits dürfen wir hoffen, dass Arbeit produktiver werden könnte, wenn Aufgaben automatisiert werden, sodass Humanressourcen für Tätigkeiten freigesetzt werden, die mehr Wertschöpfung bewirken, und so die Wirtschaftsleistung und die Löhne steigen. Doch Automatisierung und tiefgreifender technischer Wandel stoßen zunächst gewöhnlich auf Skepsis und Widerstand, weil viele davon ausgehen, sie würden Arbeitsplätze vernichten.. Und das könnte bei KI sicherlich der Fall sein.

Die Kritiker von moderner Technik könnten diesmal jedoch Angestellte aus dem Dienstleistungssektor sein. Die Vorstellung, dass technische Umwälzungen Jobs kosten und die Lebensweise gefährden, ist so alt wie der Kapitalismus selbst. Doch wie Professor Shiller in seinem Buch Narrative Wirtschaft erklärt, basieren diese Ideen zwar nicht auf wissenschaftlichen Daten, sind aber schwer auszurotten und tauchen im öffentlichen Diskurs immer wieder auf. Geschichten von Menschen, die ihre Arbeit verlieren und deren Aussichten sich verdüstern, sind zu präsent, um von den Wirtschaftsakteuren (Haushalten/Privatpersonen/Konsumenten, Unternehmen, Regierungen und Zentralbanken) ausgeblendet zu werden. Es besteht also das Risiko, dass der KI mit derselben Mischung aus Begeisterung und Angst begegnet werden könnte.
Schätzungen aus einem McKinsey-Bericht5 zufolge ließ die Umstellung vom Pferd aufs Auto Anfang des 20. Jahrhunderts im Zeitraum von 1910 bis 1950 über sechs Millionen Arbeitsplätze entstehen (vom Ölsektor über Produktion, Autowerkstätten und Tankstellen bis hin zur Werbebranche). Dabei sind die Tausenden von Unternehmen, die durch die weite Verbreitung des Autos möglich wurden, noch gar nicht mitgezählt.

Doch ein Bericht des US Bureau of the Census6 aus der Zeit kurz nach der Weltwirtschaftskrise in den 1930er-Jahren bezeichnete die Umstellung vom Pferd aufs Auto als einen der maßgeblichen Faktoren für die Verschärfung der Depression. Die Auswirkungen reichten vom Landwirtschaftssektor (der seine besten Kunden verlor, die Pferde nämlich) über die Lebensmittelmärkte (auf denen eine Abwärtsspirale der Preise zu beobachten war, da die Agrarproduzenten neue Märkte suchten) bis hin zu den Regionalbanken (deren Kunden Druck auf ihre Margen7 spürten, was oft in den Konkurs führte). Letztlich griffen sie auch auf andere Sektoren und auf den gesamten Arbeitsmarkt über. Insgesamt gingen 13 Millionen Jobs verloren.

Bei KI wissen wir noch nicht, wie die Technologie angenommen wird und welche Folgen sie auf dem Arbeitsmarkt haben könnte. Es herrscht allgemein Einvernehmen darüber, dass die Einführung langsam vonstattengehen dürfte – und damit auch ihre Folgen . Ein Grund dafür: Es ist ausgesprochen schwierig, in Unternehmen einen Systemwechsel herbeizuführen, der es ermöglicht, das Potenzial von KI zu maximieren. Den Vertrieb mit Autos anstelle von Pferden auszustatten, um den Umsatz zu steigern, ist nicht wirklich damit zu vergleichen, komplexe Industrien umzubauen, um KI effizienter zu nutzen. Hinzu kommt, dass unsere Volkswirtschaften zu einem erheblichen Teil aus Sektoren bestehen, die nur schwer so umzugestalten sein dürften, dass KI letztlich ihre Produktivität steigert (man denke etwa an das Gesundheitswesen, den Bildungssektor, die Gastronomie und Hotellerie, Kunst oder Sport). Dabei handelt es sich um große Wirtschaftssektoren, deren Produktivität eine wichtige Rolle spielt.

Zuversichtlicher stimmt eine aktuelle Analyse8 disruptiver Technologien, der zufolge vorstellbar ist, dass die Produktivitätsveränderungen einer sogenannten J-Kurve folgen – das heißt einem Trend, der zunächst stark abfällt und dann drastisch ansteigt. Im Klartext: Bevor die Technologie positive Ergebnisse bringen kann, müssen Unternehmen Geld und Zeit investieren, um die betreffenden Tools einzuführen und die Belegschaft dafür zu schulen, sie effektiv zu nutzen. Das wiederum dürfte ihre Produktivität vermutlich verringern, da sie Zeit für unproduktive Aktivitäten aufwenden. Erst dann ist mit wirtschaftlichem Nutzen zu rechnen, und die Produktivität wird schließlich sprunghaft steigen.
Wenn Produktivität nicht der Blickwinkel ist, aus dem wir an KI herangehen sollten, wäre ihre Funktion als Basistechnologie eine andere Betrachtungsweise. Vielleicht erledigen wir unsere derzeitigen Aufgaben mit KI gar nicht unbedingt schneller oder womöglich besser (was in manchen Fällen durchaus noch denkbar ist). Vielleicht wird sie letztlich zum Kanal für neue Dienstleistungen, für die Menschen künftigbereit sind zu zahlen – was zur Entstehung neuer Unternehmen führen würde, die diese Dienste bereitstellen können. Träfe das zu, wäre KI mit Blick auf ihre Effekte eher nicht mit dem Automobil vergleichbar, sondern stattdessen mit der Elektrizität.

Die Elektrifizierung war definitiv ein Durchbruch in der Menschheitsgeschichte. Der elektrische Strom ermöglicht – bis heute – ebenfalls neue Dienstleistungen, die sich die Menschen zuvor nie erträumt hätten. Diese Umwälzung war gewaltig, und dennoch – in Bezug auf die Schaffung von Arbeitsplätzen allein hatte die Elektrifizierung keine so drastischen Folgen wie die Umstellung vom Pferd aufs Auto. Das Ergebnis ist, dass wir erst dann merken, wie sehr wir im Leben auf den Strom angewiesen sind, wenn er ausfällt.

Kann die KI-Revolution ähnlich weitreichende Folgen haben wie die Elektrifizierung? Oder genauer: Ist KI ein neues Beispiel für eine Mehrzwecktechnologie, englisch „General-Purpose Technology“ oder kurz GPT (nicht zu verwechseln mit GPT in ChatGPT)? Dabei handelt es sich um technische Durchbrüche, die weitreichende Produktivitätssteigerungen und die Entstehung ganz neuer Dienstleistungen und Industriezweige ermöglichen. Eine solche GPT9 muss folgende Voraussetzungen erfüllen:

  1. in mehreren Sektoren zum Einsatz kommen – was bei KI der Fall sein dürfte
  2. Möglichkeiten zur laufenden Verbesserung bieten – ein grundlegendes Merkmal von KI
  3. das Potenzial bieten, zur Einführung branchenspezifischer Innovation zu führen – was für KI ebenfalls als wahrscheinlich angesehen wird.
Trifft dies zu, könnte sich wirtschaftlicher Nutzen (und Finanzchancen für Investoren) nicht unbedingt seitens der Anbieter von KI-Tools ergeben, sondern seitens neuer, KI-gesteuerter Unternehmen, die auf der Grundlage sektorspezifischer Bedürfnisse gegründet werden. So, wie das Internet – die Innovation, die mit dem Kommunikationsnetz Einzug hielt, das aus militärischem Bedarf heraus entstand – erst die Entstehung neuer Unternehmen ermöglicht (wie beispielsweise Meta – vormals Facebook), wenn Zwischentechnologien im großen Stil eingesetzt werden (in diesem Fall schnelle Mobilfunknetze und Smartphones). Letztlich sind es jedoch Unternehmen wie Meta, die aus der Grundlagentechnologie (dem Internet) finanzielle Vorteile ziehen konnten, während Unternehmen, die die Voraussetzungen zur Nutzung des Internets bereitstellen (wie Netzwerkbetreiber oder Softwareschmieden, die Webbrowser entwickeln), nicht so erfolgreich waren.10

Ein weiterer Fingerzeig, der auf die Hypothese von der Mehrzwecktechnologie hindeutet, ist allem Anschein nach, dass Anwendungen auf der Grundlage von KI bisher einigermaßen verbraucherfreundlich sind. Im Gegensatz etwa zum Quantencomputing ist die explosionsartige Zunahme der Anwendungsfälle von KI und die Leichtigkeit, mit der sich die Menschen schnell an sie gewöhnen, offensichtlich. Bedenken Sie, wie rasant sich ChatGPT in den ersten Monaten nach seiner Einführung verbreitete – nach Schätzungen soll es im Januar 2023 bereits von 100 Millionen aktiven Nutzern pro Monat eingesetzt worden sein, gerade einmal zwei Monate nach der Markteinführung. Damit wäre es die wachstumsstärkste Verbraucheranwendung der Geschichte.11
Die Vorstellung, dass KI maßgeblich umgestaltet, wie Unternehmen arbeiten und Produktivitätssteigerungen erzielen, könnte theoretisch auf Jahre hinaus für höhere Bewertungen sorgen. Überdies sitzen die Unternehmen womöglich auf gewaltigen Mengen kostbarer Daten über ihre Kunden, die noch mehr Potenzial freisetzen könnten, wenn sich diese beispielsweise für Umsatzsteigerungen nutzen ließen.

Abschließend würde der eine oder andere einwenden, dass Vermögenswerte wie Tools auf KI-Basis anders als Sachanlagen (Grundstücke, Gebäude, Maschinen), die mit der Zeit an Wert verlieren, weil sie veralten, nach und nach immer besser und wertvoller werden können. Eine Senkung der Abschreibungssätze oder die komplette Abschaffung der Abschreibung würde die Rentabilität – und damit den Ertrag – spürbar steigern.

Dazu könnte es aber nur kommen, wenn Unternehmen die KI-Revolution bereitwillig annehmen und ihre Betriebe so umbauen, dass Daten im Mittelpunkt ihrer Prozesse stehen. Das ist jedoch keine einfache Aufgabe, da die Daten vieler Unternehmen nach wie vor in unterschiedlichen Formaten und von unterschiedlichen Teams aus unterschiedlichen Abteilungen erfasst und gespeichert werden. Bis diese Informationen richtig genutzt werden können, sind Zeit, Investitionen und fähige Fachkräfte erforderlich – drei Faktoren, von denen die kurzfristigen Bewertungen in der Regel nicht profitieren.

Es ist daher keine Überraschung, dass das abgesehen von den großen, bekannten Namen aus dem US-Tech-Sektor (Nvidia, Microsoft, Meta, Google) viele Unternehmen es gar nicht erst versuchen – insbesondere kleinere Unternehmen, denen häufig die erforderlichen Kompetenzen und das Geld fehlen, um in diese Technologien zu investieren. Dennoch könnte es ihnen KI theoretisch ermöglichen, in Bereichen konkurrenzfähig zu werden, die ihnen zuvor verschlossen waren, wie Recht, Compliance, Marketing oder Beratung.

Die Leistungen von Unternehmen aus diesen Sparten sind zu großen Teilen ausgesprochen zeit- und ressourcenintensiv, was kleinere Unternehmen de facto aus dem Wettbewerb ausschließt. In einer (nicht so fernen) Zukunft, in der man sich bei der Erledigung dieser Aufgaben von KI unterstützen lassen kann, könnten Ideen, Kreativität und individuelle Angebote stärker in den Mittelpunkt des Wertschöpfungsprozesses dieser Unternehmen rücken als nur Ressourcen.

Die wichtigste Frage für Anleger ist dabei: Ist KI für eine begrenzte Zahl von Tech-Unternehmen (überwiegend in den USA und China) der nächste große Wurf, was in erster Linie deren Investoren zugutekäme (wenngleich sich gewisse positive Folgewirkungen nicht ausschließen lassen, etwa die Rolle, die die sozialen Medien für viele kleine Unternehmen spielen, die sich bei ihren B2C-Strategien (Business to Consumer) darauf stützen)? Oder wird KI als Mehrzwecktechnologie breite wirtschaftliche Auswirkungen haben, wobei die Gewinner von morgen nicht unbedingt die Protagonisten von heute sein müssen? Die Investmentthese in diesen beiden Szenarien ist nicht dieselbe. Eine Entscheidung für die falsche These könnte für Anleger spürbare Folgen haben.
Bei der Skizzierung potenzieller Entwicklungen, die die KI nehmen könnte, müssen wir aber auch die Effekte der Regulierung in die Gleichung einbeziehen.

In der Vergangenheit war die Regulierung der Einführung großer Erfindungen und Durchbrüche nachgeschaltet, vor allem im Technologiesektor. Die Gesellschaft lernt daraus und erlebt mitunter ihre negativen Konsequenzen. Deshalb werden neue Regeln festgesetzt, um auf eine Nutzung hinzuwirken, die allen zugutekommt, und negative Folgen zu begrenzen und möglichst zu eliminieren.

Ein eindeutiges Beispiel liefern die ständig zunehmenden Sicherheitsregularien für Technologien wie Computer oder Elektrizität. Es gibt keinen Grund, anzunehmen, dass das bei KI anders sein wird, wenngleich viele bereits Vorschriften einfordern, noch bevor die Technologie im großen Stil eingesetzt werden kann.

Das Ziel einer präventiven Regulierung ist, wie viele meinen, die Fallstricke von Alles-oder-nichts-Szenarien wie bei den sozialen Medien zu meiden, für die die Regulierung möglicherweise zu spät kam und jetzt angesichts der bestehenden Infrastruktur schwer durchzusetzen ist. Die Ziele werden ausgesprochen breit gefächert sein, angefangen damit, was KI alles tun darf, bis hin zu der Frage, wer letztendlich für ihre Handlungen verantwortlich ist – von der Frage, wem die Ergebnisse KI-gestützter Tools zustehen, bis hin zum Zugriff auf Daten und Algorithmen, vom Erstellen von Fake News bis hin zur Nutzung gefälschter Inhalte.

Die USA und das Vereinigte Königreich verfolgen bei der Regulierung einen abwartenden Ansatz, der auf der Vorstellung fußt, dass wir zunächst wissen müssen, wie KI-Tools verwendet und eingesetzt werden, um mehr über ihre Risiken und andere Fragen wie Eigentumsrechte und Verantwortung zu erfahren. Das Ziel ist, progressive Vorschriften vorzugeben, die theoretisch Probleme aus der Welt schaffen sollten, wenn diese entstehen. Dieser Ansatz spricht eindeutig für die Bereitschaft, die Entwicklung von KI-Ökosystemen zu fördern (von Unternehmen über Dienstleistungen bis hin zu anderen Anwendungen). Kritiker würden einwenden, dass dieser Laisser-faire-Ansatz, wenn nicht rechtzeitig eingegriffen wird, die negativen und unbeabsichtigten Folgen (die manchmal auch als „Externalitäten“ bezeichnet werden) nicht einfangen kann, was zu faktischen Unrichtigkeiten, systemischem Rassismus, politischer Desinformation und dergleichen führen kann.

Am anderen Ende des Spektrums beobachten wir, wie China zur Welt der KI eine vergleichsweise feste Haltung einnimmt und eindeutig das Ziel verfolgt, die gesamte Wertschöpfungskette zu kontrollieren (von Daten über Algorithmen bis hin zu Endanwendungen und Apps). Sowohl geopolitische Faktoren als auch Gründe der internen Stabilität werden als wichtigste Treiber dieses konservativen und eher restriktiven Ansatzes bezeichnet.

Die EU steht in der Mitte und versucht ein Gleichgewicht zwischen der Notwendigkeit, sicherzustellen, dass KI verantwortungsvoll eingesetzt und verwendet wird, und Unternehmen gleichzeitig zu ermöglichen, innovativ tätig zu werden und auf allen Gebieten wirtschaftliche Chancen ausfindig zu machen.

Einer der wichtigsten Punkte bei der Regulierung dürfte sich auf die Frage der Eigentumsrechte an den Daten beziehen. Da das Trainieren moderner Modelle gewaltige Datenmengen erfordert, werden diese gewöhnlich aus dem Internet mit all seinen Ressourcen und Inhalten bezogen. Doch obwohl die Daten im Internet öffentlich verfügbar sind, heißt das nicht, dass sie auch uneingeschränkt genutzt werden dürfen.

Hinzu kommt: Vielleicht möchten die Menschen, deren Daten für diese Zwecke genutzt werden, diese irgendwann monetisieren. Schließlich ist die Aufgabe, jemanden zu unterrichten (die KI) oder Material (Daten) dafür zu erstellen, so alt wie die Menschheitsgeschichte, und mit seltenen Ausnahmefällen wird sie nach wie vor bezahlt.12 Wir bezeichnen das als Lehrtätigkeit. Es ist mit gerichtlichen Auseinandersetzungen zwischen denjenigen zu rechnen, denen die Daten gehören, und denjenigen, die sie nutzen, um ihre Modelle damit zu trainieren.13

Ein damit zusammenhängendes Problem ist, dass das Internet zwar für viele praktische Anwendungen effektiv unbegrenzt ist, doch die Menge hochwertiger Daten nicht so schnell zu nimmt wie der Bedarf der anspruchsvollsten Algorithmen. Manche behaupten, Daten von hoher Qualität könnten spätestens 2026 erschöpft sein.14 Das sind natürlich Hochrechnungen, die potenzielle Optimierungen der Trainingsmethoden nicht angemessen berücksichtigen. Dennoch herrscht wachsendes Einvernehmen darüber, dass Effizienzsteigerungen bei KI durch Energie und Daten begrenzt werden könnten, weil diese beiden Faktoren nicht im erforderlichen Tempo zunehmen.
Bei unseren Überlegungen zu den potenziellen Auswirkungen des flächendeckenden Einsatzes von KI (die bekannten Unbekannten) sollten wir auch die eventuellen negativen Externalitäten berücksichtigen, die KI auslösen könnte. Diese (die unbekannten Unbekannten) sind in aller Regel schwerer auszumachen. Gewöhnlich werden wir von negativen Entwicklungen infolge eigentliche positiver technischer Durchbrüche überrascht.

Das Paradebeispiel dafür war die Hoffnung, dass die offenen Gespräche und Interaktionen, die das Internet mit sich brachte, mit der Zeit zu den Schlüsselfaktoren werden würden, durch die sich Demokratie, Freiheit und Vertrauen überall verbreiten würden. Man hielt die Richtigkeit von Informationen und die Rechenschaftspflicht für unvermeidliche Folgen des Internets.

Darin steckt zwar ein Körnchen Wahrheit (immerhin sind hochwertige Informationen im Internet frei verfügbar), doch es sollte sich herausstellen, dass Polarisierung, Misstrauen, Propaganda und blanke Lügen (Fake News) eine verbreitete Plage unseres Internetzeitalters sind. Noch problematischer: Die Möglichkeit, menschenähnliche Inhalte zu erzeugen, Stimmen und Bilder (Deep Fakes) eingeschlossen, hat eindeutig das Potenzial, etablierte Prozesse zu stören, die unser Leben bestimmen, darunter auch demokratische Prozesse und Wahlen.

In militärischen Angelegenheiten wirft der erwartete zunehmende Einsatz von KI und unbemannten Waffen die schwierige Frage auf, inwieweit der Mensch die Kontrolle behalten und für deren Einsatz sowie, wenn nicht noch wichtiger, für den Entscheidungsprozess selbst verantwortlich gemacht werden muss.
Ossiam gehört zum Affiliate-Netzwerk von Natixis Investment Managers und ist Teil unseres Expert Collective.

Gedankliche Vielfalt fördert die Entwicklung erkenntnisreicher Ideen.

Das “Expert Collective” kurz vorgestellt

GLOSSAR
  • Künstliche Intelligenz (KI) – die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere durch Computersysteme. Zu den spezifischen Anwendungen von KI gehören Expertensysteme, die Verarbeitung natürlicher Sprache, Spracherkennung und maschinelles Sehen.
  • Chatbot – Kurzwort für „Chatterbot“. Dabei handelt es sich um Computerprogramme, die über Sprachsteuerung oder Textchats oder beides Gespräche zwischen Menschen simulieren.
  • Deep Learning – läuft auch unter der Bezeichnung „tiefe neuronale Netze“ und gehört zur größeren Familie von Methoden des „maschinellen Lernens“, die sich auf den Erwerb von Datendarstellungen anstelle aufgabenorientierter Algorithmen stützen. Neuronale Netze bestehen aus einer Reihe von Algorithmen, deren Aufgabe es ist, mit Hilfe eines Prozesses, der die Funktion des menschlichen Gehirns nachahmt, zugrunde liegende Zusammenhänge in Datensätzen zu erkennen. Beim Deep Learning werden Daten in mehreren Lernschichten (deshalb „deep“) analysiert, anfangs möglicherweise durch das Erlernen einfacher Konzepte und die Kombination dieser einfacheren Konzepte, um sich komplexere Konzepte und Abstraktes zu erarbeiten.
  • Generative KI – bekannt geworden durch texterzeugende Chatbots wie ChatGPT, ist generative KI eine Gesprächstechnologie, die in der Lage ist, enorme Datenmengen zu analysieren. Im Grunde kann sie aber nur, wofür sie programmiert wurde – und unterscheidet sich dadurch von einer starken KI. Der unkonventionelle Zugang zu generativer KI hebt sie jedoch von jeder bisherigen KI ab. Nutzer müssen nichts von maschinellem Lernen verstehen, um damit zu interagieren oder ihr Wertpotenzial auszuschöpfen. Im Grunde kann sie jeder nutzen, der in der Lage ist, Fragen zu stellen. Sie kann auch Möglichkeiten für eine ganze Bandbreite von Inhalten eröffnen, darunter Bilder, Videos, Audios und Computercode. Und sie kann in Organisationen verschiedene Funktionen übernehmen wie die Klassifizierung, die Bearbeitung oder die Zusammenfassung von Inhalten, die Beantwortung von Fragen und die Erstellung neuer Inhalte.
  • Maschinelles Lernen – ein Teilbereich der KI, der es Computersystemen ermöglicht, direkt aus Beispielen, Daten und Erfahrungen zu lernen. Maschinelles Lernen wird vermehrt zur Verarbeitung von „Big Data“ herangezogen. Es handelt sich dabei um das Konzept, dass ein Computerprogramm ohne menschliches Zutun lernen und sich an neue Daten anpassen kann – es sorgt dafür, dass die eingebauten Algorithmen eines Rechners ungeachtet weltwirtschaftlicher Veränderungen aktuell bleiben.
  • Natürliche Sprachverarbeitung – ein Teilgebiet der Informatik, der Informationstechnik und der KI, das sich mit den Interaktionen zwischen Computern und menschlicher (natürlicher) Sprache befasst, insbesondere damit, wie sich Computer darauf programmieren lassen, große Mengen natürlicher Sprachdaten zu verarbeiten und zu analysieren. Sie gehört zu den Tools, die im sprachgesteuerten digitalen Assistenzsystem Siri zum Einsatz kommen. Solche Systeme versuchen, es Computern zu ermöglichen, menschliche Sprache in schriftlicher oder mündlicher Form zu verstehen. Die ersten solchen Modelle stützten sich auf Regeln oder Grammatik, konnten mit unbekannten Wörtern oder Fehlern (Tippfehlern) aber schlecht umgehen.
  • Quanten-Computing – Quanten-Computing ist eine Computertechnologie, die die kollektiven Eigenschaften quantenmechanischer Zustände wie Superposition, Interferenz und Verschränkung nutzt, um Berechnungen auszuführen. Die Geräte, die Quantenberechnungen ausführen, werden als Quantencomputer – oder auch als Supercomputer – bezeichnet.
1 Quelle: McKinsey, 2018, Is the Solow Paradox back?, https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/is-the-solow-paradox-back
2 Quelle: The annual average rate of change of the gross domestic product (GDP) at market prices based on constant local currency, for a given national economy, during a specified period of time.
3 Quelle: McKinsey, 2018, Is the Solow Paradox back?, https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/is-the-solow-paradox-back
4 Quelle: The annual average rate of change of the gross domestic product (GDP) at market prices based on constant local currency, for a given national economy, during a specified period of time.
5 Quelle: McKinsey Global Institute (2017), “Jobs lost, jobs gained: Workforce transition in a time of automation.”
6 Quelle: Greene, A.N. (2008), “Horses at work”, Harvard University Press.
7 The ratio of a company’s profit to its revenue.
8 Quelle: Brynjolfsson, Rock and Chad Syverson (2017), “Artificial intelligence and the modern productivity paradox: a clash of expectations and statistics”, NBER.
9 Quelle: Bresnahan and Trajtenberg (1995), “General purpose technologies ‘Engines of growth’?”, Journal of Econometrics, Volume 65, Issue 1, January 1995, Pages 83-108.
10 Quelle: Web browsers software is today mostly free or open Quelle. No company actually managed to make money out of it, with the exclusion of Microsoft which bundles it with other paying software.
11 Quelle: Reuters, Feb 2023, https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/
12 Quelle: Ancient Greek philosophers Plato and Aristotle were well-paid private tutors. Socrates was an exception as he apparently did not charge for its teachings.
13 Quelle: https://www.reuters.com/legal/getty-images-lawsuit-says-stability-ai-misused-photos-train-ai-2023-02-06/
14 Quelle: https://epochai.org/blog/will-we-run-out-of-ml-data-evidence-from-projecting-dataset

Die Bereitstellung dieser Unterlagen und/oder der Verweis auf bestimmte Wertpapiere, Sektoren oder Märkte in diesen Unterlagen stellen weder eine Anlageberatung oder Empfehlung dar noch ein Angebot zum Kauf oder Verkauf eines Wertpapiers beziehungsweise ein Angebot eines regulierten Finanzdienstleistungsgeschäfts. Anleger sollten die Anlageziele, -risiken und -kosten eines Investments vor der Anlage sorgfältig prüfen. Die enthaltenen Analysen, Meinungen und bestimmte Investmentthemen und -prozesse stellen die Einschätzungen der/des Portfoliomanager/-s zum angegebenen Datum dar. Diese sowie die angegebenen Portfoliobestände und -merkmale können sich jederzeit ändern. Es kann nicht zugesichert werden, dass sich die in diesem Dokument enthaltenen Vorhersagen oder Prognosen als richtig erweisen. Die von externen Dritten dargelegten Analysen und Meinungen sind unabhängig und decken sich nicht unbedingt mit den Analysen und Meinungen von Natixis Investment Managers. Die Angaben zur früheren Wertentwicklung lassen keine verlässlichen Rückschlüsse auf zukünftige Wertverläufe zu.