Werden Maschinen irgendwann effektivere Entscheidungen treffen, als es die Menschen heute können? Oder ist das mechanisierte Denken an sich völlig ungeeignet, weil die Komplexität der Welt mit radikalen Unsicherheiten einhergeht? Darüber hinaus stellt sich die Frage, ob die Menschheit sich nach der Covid-19-Krise mehr denn je mit künstlicher Intelligenz (KI) anfreunden muss. In Anbetracht der globalen Gesundheitskrise eröffnet uns Dr. Robert Elliott Smith, führender KI-Experte und Autor des 2019 erschienenen Buchs „Rage Inside the Machine: The Prejudice of Algorithms and How to Stop the Internet Making Bigots of Us All“, einzigartige Einblicke in die Prognosestärken und -schwächen der KI.

Robert Elliott Smith, PhD, FRSA

CTO von BOXARR Ltd und Senior Research Fellow of Computer Science
University College London
Wenn man alles den Märkten überlässt, auch die Bereitstellung von Informationen, dann wird das sehr unschöne Folgen haben.

Sie sagen, uns könnte ein sogenannter „Tech Lash” bevorstehen. Was meinen Sie damit?

Nun, vor Covid-19 dürfte es täglich einen Artikel in einer großen britischen Zeitung gegeben haben, in dem darüber berichtet wurde, was irgendein Algorithmus schon wieder verbrochen hat. Die Art und Weise, wie Algorithmen Daten analysieren, ist immer dieselbe und ziemlich einfach. Meiner Ansicht nach verkennen die Menschen, was Algorithmen können. Im Hinblick auf Skalierung und Geschwindigkeit sind sie ausgesprochen leistungsfähig – nicht aber, wenn es um subtile menschliche Qualitäten geht. Und wenn sie versagen, wirken sie oftmals wenig vertrauenswürdig.

So müssen Sie beispielsweise ein Foto von sich hochladen, wenn Sie einen Pass beantragen. Das Bild wird unverzüglich analysiert, und Sie erfahren, ob es den Vorschriften für Passfotos entspricht.

Nun gab es im Vereinigten Königreich den Fall, dass ein dunkelhäutiger Herr afrikanischer Abstammung, der sein Foto hochgeladen hatte, immer wieder die Meldung bekam, sein Mund stehe offen. Die Technologie deutete seine Unterlippe als offenen Mund und ließ sein Passfoto nicht zu. Deshalb musste er sich umständlich persönlich an die Behörde wenden und den Algorithmus umgehen.

Etwas Ähnliches geschah in Australien. Dort wollte ein Mann asiatischer Abstammung einen Pass beantragen. In seinem Fall behauptete der Algorithmus stur, seine Augen seien geschlossen.

Das ist stereotypes Denken der schlimmsten Sorte und in erster Linie auf die Daten zurückzuführen, denn der Gesichtserkennung liegen breit angelegte statistische Prozesse zugrunde, weshalb sich Fehler stets auf die in der Stichprobe enthaltenen Minderheiten konzentrieren werden. Faktisch findet implizit eine Diskriminierung von Minderheiten statt, weil der Algorithmus so einfältig ist.

Leider trauen die Leute Algorithmen Dinge zu, die sie gar nicht leisten, was vor allem an dem Medien-Hype liegt, der um KI entstanden ist. In manchen Zeitungsberichten wird grob irreführend dargestellt, was KI zu bewirken vermag. Den Menschen wird folglich viel versprochen, was KI noch nicht halten kann.

Hinzu kommt, dass KI, obwohl sie womöglich nie in der Lage sein wird, subtile menschliche Reaktionen zu erfassen, heute in sehr intimen Bereichen des menschlichen Lebens eingesetzt wird. Meiner Ansicht nach werden diese beiden Umstände zusammen für erhebliche Unzufriedenheit und einen potenziellen „Tech Lash“ sorgen.

Dieser Hype-Zyklus ist natürlich nichts Außergewöhnliches. Als Anleger haben Sie ihn vielleicht verfolgt und versucht, zum richtigen Zykluszeitpunkt in die Technologie zu investieren. Doch derzeit setzen die Menschen voll und ganz auf diese Technologien, ohne zu merken, wie überzogen der Hype in vieler Hinsicht ist.

Wo stehen wir Ihrer Ansicht nach derzeit in dem Hype-Zyklus rund um KI?

Das absolut Faszinierende an KI ist, dass sie jedes Jahr neu definiert wird. Wenn Sie einen beliebigen Zehnjahreszeitraum anschauen, so ist die jeweils zu Beginn der Dekade als KI beschriebene Technologie nicht dieselbe wie die Technologie, die am Ende dieser Periode als KI bezeichnet wird.

Meistens war es so, dass alles, was als KI bezeichnet wurde, für einen großen Hype sorgte. Dieser Hype klingt ab, und aus der sogenannten KI wird ein technisches Hilfsmittel, das zwar ausgesprochen nützlich ist, aber fortan nicht mehr als KI bezeichnet wird.

Nehmen Sie die objektorientierte Programmierung. Sie galt irgendwann als KI-Technologie. Heute gehört sie zum Standardrepertoire der Programmiererausbildung. Im Maschinenbau galt vieles einst als Teilbereich der KI, doch dann verebbte der Hype, und plötzlich war es nur noch ganz normale Technik.

Das Hype-Muster verläuft bei der KI sinusförmig, weil KI eben nicht die eine konkrete Bedeutung hat. Und sie durchläuft auch nicht nur einen einzigen Hype-Zyklus, sondern immer wieder neue.

Ich glaube, wir sind derzeit wohl schon weit über den KI-Hype-Zyklus hinaus, wie wir ihn vielleicht vor zwei oder drei Jahren beschrieben haben, als alle sagten, Deep Learning werde alles Mögliche können. Es hieß, Deep Learning sei die Lösung, die starke künstliche Intelligenz möglich mache.

Ein Blick auf die wissenschaftliche Literatur zeigt, dass es seit ein paar Jahren erste äußerst kritische Artikel über Deep Learning gibt. Es kann viel, doch der Hype-Zyklus hat sich meiner Ansicht nach bereits selbst überholt.

Sollten in der Welt nach Covid-19 viele Arbeitsplätze verloren gehen, besteht dann die Gefahr, dass die Menschen die Technologie für ihre Probleme verantwortlich machen?

Definitiv. Jeder hat in den letzten Jahren Berichte darüber gelesen, wie uns Roboter alle Arbeitsplätze wegnehmen. Ich habe dazu aber keinen klaren Standpunkt.

2016 war die Verlagerung von Arbeitsplätzen durch die KI beim Weltwirtschaftsforum in Davos das große Thema. In einem Artikel hieß es, dass etwa ein Drittel aller menschlichen Aufgaben in naher Zukunft von Maschinen erledigt werden könnte. In fernerer Zukunft würde das voraussichtlich zwei Drittel aller Tätigkeiten betreffen. Nun ist dieser Artikel methodisch so mangelhaft, dass ich gar nicht weiß, wo ich anfangen soll. Er ist ein Paradebeispiel dafür, dass die Datenanalyse voller inhärenter Verzerrungen steckt.

Ich bin daher davon überzeugt, dass Maschinen noch nicht viele menschliche Aufgaben übernehmen können. Ich gehe aber dennoch davon aus, dass viele menschliche Arbeitsplätze von Maschinen übernommen werden. Wie ich es sehe, wird es in vielen Tätigkeitsbereichen irgendwann zwei Arten von Dienstleistungen geben. Es wird Menschen geben, die von Maschinen betreut werden, weil sie sich die Betreuung durch Menschen nicht leisten können. Und dann wird es Menschen geben, die die Mittel haben, sich von Menschen betreuen zu lassen.

Nehmen Sie den Kundenservice. Kurz nachdem ich 1997 ins Vereinigte Königreich gezogen bin, hatte ich jede Menge Probleme mit Versorgungsunternehmen und mir ist mehrfach mein Rechner abgestürzt. Ich musste viele Kundenhotlines bei verschiedenen Anbietern anrufen, und der Kundenbetreuer am anderen Ende der Leitung war stets ein Mensch, der Fragen auch wirklich beantworten konnte. Innerhalb von nur zwei oder drei Jahren wurde es schwierig, einen menschlichen Kundenbetreuer zu erreichen. Das weiß heute jeder.

Und das liegt nicht daran, dass die heutigen Kundenbetreuungssysteme besser funktionieren würden. Für den Kunden ist nichts besser geworden, nur für das Unternehmen. Und dorthin geht die Reise meines Erachtens in vielen Bereichen. Ich glaube, KI wird eine Menge Arbeitsplätze vernichten und schlechteren Service bieten, doch Kunden, die sich menschliche Betreuung nicht leisten können, werden sich damit zufriedengeben müssen.

Roboter sind immun gegen das Coronavirus. Doch überschätzen wir die KI und unterschätzen wir die Menschen, die uns vor dieser Pandemie retten können – die medizinischen Fachkräfte, die nie einfach durch Maschinen zu ersetzen sein werden?

Eine Folge von Covid-19 ist, dass wir uns alle nach mehr zwischenmenschlichen Kontakten sehnen und gering qualifizierte Arbeitskräfte besser zu schätzen wissen. Vielleicht wird diese Krise mehr als jedes andere Ereignis der letzten Jahre den Blickwinkel verändern und den Leuten vor Augen führen, wie wichtig der Mensch bei lebenswichtigen Dienstleistungen ist.

Vor Kurzem habe ich von einem Putzroboter gelesen, der an einen Roomba erinnert, aber an der Oberseite mit einer großen UV-C-Lampe versehen ist. Er kann in einem Krankenhaus von Zimmer zu Zimmer fahren und die meisten Keime abtöten. Wer einen Roomba hat, der weiß: Ist der Fußboden eben und die Wohnung immer tipptopp aufgeräumt, sodass nichts auf dem Boden herumliegt, dann passt alles. In diesem Fall arbeitet der Roomba ganz gut.

Wer aber lebt wie ein Mensch, wie ich das formuliere – ich bin gerade in meinem Schlafzimmer, während ich mit Ihnen spreche, denn dort ist mein kleines Büro, und dort liegen die Hausschuhe meiner Frau auf dem Boden, ein Paar Socken und noch ein Kissen –, der wird feststellen, dass der Roomba damit nicht so gut zurechtkommt. Er fährt dann einfach um alle Hindernisse herum. Und in die Ecken kommt er auch nicht.

In einem komplexeren menschlichen Umfeld, in dem komplexere Dinge stattfinden, hätte ich zu viel Angst, dass sich das Coronavirus unter dem Kissen verstecken könnte und von dem Hygieneroboter unbemerkt bleibt. Trauen wir einem Roboter wirklich zu, richtig zu funktionieren, wenn es um Leben und Tod geht? Oder würden wir nicht doch lieber eine Pflegekraft hineinschicken, die dann sicherstellt, dass wirklich alles sauber und ordentlich ist?

Nicht, dass ich nicht auch an Menschen meine Zweifel hätte. Doch so viel ich über Technologie weiß, geht sie mit bestimmten Komplexitäten – wie unterschiedlichen Oberflächen und Formen – noch nicht so effektiv um wie ein feinmotorischer Mensch. Vertrauen habe ich zwar zu beiden nur bedingt, doch ich weiß, dass wir noch keine wirklich guten transportablen Roboter mit der Feinmotorik einer menschlichen Hand bauen können. Deshalb ist mir lieber, wenn ein qualifizierter, gewissenhafter Mensch solche Aufgaben übernimmt.

Würden Sie der Aussage zustimmen, dass es in Zukunft vermutlich um die Frage „Mensch mit Maschine oder Mensch ohne Maschine“ gehen wird?

Auf jeden Fall. Meiner Ansicht nach wird die Zukunft von einem kooperativen Verhältnis zwischen Mensch und Maschine geprägt sein – vor allem aber wird deutlich werden, wodurch sich menschliche Intelligenz und ihre Feinheiten unterscheiden.

Menschliche Intelligenz definiert sich meines Erachtens durch ihr Verständnis von Feinheiten, während maschinelle Intelligenz unglaublich genau, schnell und skalierbar ist. Doch wenn es um die Feinheiten geht, taugt sie nichts. Es kommt in erster Linie darauf an, diesen Unterschied zu begreifen, um die Beziehung zwischen Mensch und Maschine kooperativer zu gestalten und zu verbessern.

Und der Hype um KI lenkt uns von dieser Unterscheidung ab. Seit ein oder zwei Jahrhunderten erzählt man uns, das menschliche Denkvermögen erreiche dann seine Bestform, wenn es ganz rational funktioniert – wie eine Maschine. Soll heißen, dass wir dann am besten denken, wenn wir wie eine logische Maschine vorgehen – sozusagen als der perfekte Homo oeconomicus.

In Wirklichkeit müssen Menschen mit einer ungeheuer unsicheren Welt umgehen – einer Unsicherheit, die nicht als Primärmerkmal quantifizierbar ist. Wir benutzen unsere primitiven Regungen, unser Bauchgefühl, um uns emotional einzulassen, damit wir unter sehr ungewissen Bedingungen Entscheidungen treffen können.

Ob wir jemals eine Maschine erfinden, die so denkt wie ein Mensch? Ich nehme an, wir könnten das vielleicht, doch wir sind ausgesprochen komplexe, hochgradig angepasste Organismen. Und in gewisser Hinsicht wäre es in Bezug auf den gesellschaftlichen Nutzen wohl eher überflüssig, etwas zu entwickeln, das all diese Dinge sozial, emotional und psychologisch so gut beherrscht wie wir und uns daher vielleicht nur kopiert.

Die potenziellen positiven Aspekte der KI beurteilen Sie offenbar recht pessimistisch. Liegt das daran, dass es Menschen sind, die Algorithmen entwickeln, und wir Menschen letztlich von Natur aus mit Verzerrungen behaftet sind?

Schon interessant, wie der Begriff „Verzerrung“ in der statistischen Analyse oder der KI verwendet wird. Will man größere Datensätze analysieren, muss man mit Verzerrungen arbeiten, sonst wären alle Hypothesen gleichwertig. Daher unterliegen im Grunde sämtliche Entscheidungen in gewisser Hinsicht Verzerrungen. Es liegt in der Natur der Datenkompression, dass Daten komprimiert werden, um zu einer kleinteiligeren Entscheidung zu gelangen. Man muss gewisse Annahmen dazu treffen, was wichtig ist – und das ist nichts anders als Voreingenommenheit.

Also gilt zunächst, dass sämtliche maschinellen Entscheidungsprozesse Verzerrungen unterliegen. Bei der Entwicklung eines Algorithmus muss man oft Abkürzungen nehmen, um ein Problem darstellen zu können. Man sagt sich: Also gut, im Rahmen dieser Daten gilt alles, was im euklidischen Sinne in der Nähe ist, als ähnlich. Und schon kommt eine Verzerrung ins Spiel.

Tut man das und zieht Daten aus unserer wirklichen Welt heran, dann entsprechen diese Verzerrungen häufig dem, was wir als klassische Vorurteile erachten. Das geschieht beiläufig, weil unsere Datenerfassungsmethoden auf den Entscheidungen beruhen, die wir treffen. Diese Dinge greifen also effektiv ineinander und führen zwangsläufig zu klassischen Vorurteilen.

Insofern sind maschinelle Entscheidungsprozesse von Haus aus verzerrt. Nun können wir dem technisch entgegenwirken, indem wir beispielsweise die Vorgaben erfüllen, Menschen mit vielfältigen Informationen zu versorgen, nicht mit personalisierten.

So ist Facebook beispielsweise kein regulierter Medienbetrieb, sondern ein gewinnorientiertes Unternehmen. Werbekunden bezahlen Facebook für demografische Daten, um so ihre Zielgruppen mit effektiven Werbebotschaften anzusprechen. Darauf beruht die gesamte algorithmische Infrastruktur. Dadurch bekommt man praktisch die Gelegenheit, Menschen voreingenommen zu beeinflussen, weil die Algorithmen solche Verzerrungen implizit mit sich bringen.

Die Facebooks dieser Welt sollten neben einer vorteilhaften Werbedemografie noch andere Ziele verfolgen – etwa das Ziel, auch dem öffentlichen Interesse zu dienen. Schauen Sie sich doch an, wie es früher in der Medienlandschaft zuging, vor der Abschaffung der Fairness-Doktrin, als wir versuchten, die Medien zu einer fairen und ausgewogenen Berichterstattung anzuhalten.

Leider haben wir uns davon verabschiedet – zugunsten der Vorstellung, dass der freie Informationsmarkt schon alles richten wird. Und so sind wir dorthin gelangt, wo wir heute mit Großkonzernen wie Facebook stehen. Sie haben Algorithmen mit eingebauten Verzerrungen, was die politische Manipulation der Menschen zulässt.

Im Grunde muss Folgendes passieren: Wir müssen begreifen, dass Organisationen wie Facebook und Twitter Medienunternehmen sind, und diese müssen wir dann auch wie Medienunternehmen regulieren. Regulierung versteht sich hier im positiven Sinne – für das Allgemeinwohl –, anstelle eines rein neoliberalen Ansatzes, der im Grunde besagt, dass der freie Markt schon alles alleine regelt. Denn das tut er eindeutig nicht. Dieses Experiment haben wir ja bereits durchgeführt.

Die amerikanischen Medien sind seit der Abschaffung der Fairness-Doktrin nur noch polarisierter geworden und berichten weniger ausgewogen. Wenn man alles den Märkten überlässt, auch die Bereitstellung von Informationen, dann wird das sehr unschöne Folgen haben.