23. Oktober 2020

Echte Gefahr geht von Schlamperei aus, nicht von Killerrobotern, ein Crashkurs über Algorithmen:

  • Ein Crashkurs über Algorithmen:

    Das Gebiet der künstlichen Intelligenz hat in der letzten Dekade enorme Fortschritte verzeichnet.

    Der Begriff «Intelligenz» weckt allerdings falsche Erwartungen.

    Im Filmklassiker «2001: A Space Odyssey» erweist sich HAL 9000, der Computer mit dem roten Kameraauge, als Bösewicht.

    Im Filmklassiker «2001: A Space Odyssey» erweist sich HAL 9000, der Computer mit dem roten Kameraauge, als Bösewicht.

    Wer an einem weinseligen Abend über Algorithmen sprach, riskierte bis noch vor nicht so langer Zeit, seine Gesprächspartner in die Flucht zu schlagen.

    Ausser Mathematikern und Informatikern schien sich kaum jemand dafür zu interessieren.

    Das hat sich in den letzten Jahren geändert: Es ist en vogue, über Algorithmen Bescheid zu wissen, vor allem unter Intellektuellen.

    Ob der Philosoph Richard David Precht, der Soziologe Armin Nassehi oder der Historiker Yuval Noah Harari: Sie alle befassen sich in ihren Büchern mit ihnen.

    Spätestens seit der angedrohten Verbannung der chinesischen Kurzvideo App Tiktok aus den USA ist zudem klargeworden: Algorithmen spielen nicht nur im Alltag eine immer grössere Rolle, sondern auch im geopolitischen Kräftemessen zwischen den USA und China.

    Falls Sie sich bisher davor gedrückt haben, ist es höchste Zeit, sich mit ihnen zu befassen.

    Was Sie aus dem Crashkurs mitnehmen:

    • Algorithmen sind nicht schwierig zu verstehen.
    • Wer von Algorithmen spricht, meint meist maschinelles Lernen, ein Teilgebiet der künstlichen Intelligenz (KI).
    • Der eigentliche Durchbruch beim maschinellen Lernen fand in den 2010er Jahren mit Deep Learning statt.
    • Deep Learning kann nur sinnvoll eingesetzt werden, wenn gewisse Voraussetzungen erfüllt sind.
    • Das ist oft nicht der Fall; geeignete Anwendungsfelder sind deshalb relativ selten.
    • Die Furcht vor Killerrobotern und dergleichen ist unbegründet.

    Was ist ein Algorithmus überhaupt?

    Wir machen es uns einfach und beginnen mit einer Definition:

    «Ein Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems.

    Eine Eingabe wird dabei in genau definierten Schritten in eine Ausgabe umgewandelt.

    »Das hört sich unspektakulär an und ist es auch.

    Bereits ein Kochrezept kann als Algorithmus gelten.

    Denn es liefert genaue Vorschriften (die Zubereitungsschritte), wie eine Eingabe (die Zutaten) in eine Ausgabe (das Gericht) umgewandelt werden kann.

    Damit ein Roboter damit umgehen könnte, müsste allerdings alles genau und eindeutig formuliert sein.

    Mit vagen Angaben wie «eine Prise Salz» oder «mit Öl anbraten» können Computer nichts anfangen.

    Wie viele Gramm entsprechen einer Prise? Ist mit Öl Sonnenblumenöl oder Olivenöl gemeint? Oder etwa Erdöl? Die letzte Frage mag für Menschen absurd erscheinen; nicht aber für einen Computer, dem gesunder Menschenverstand und Intuition abgehen. Oder salopp gesagt: Algorithmen sind «dumm».

    Wie Maschinen kochen lernen (könnten):

    Dennoch sind sie von einer fast mystischen Aura umgeben.

    Das liegt daran, dass heute oft maschinelles Lernen gemeint ist, wenn von ihnen die Rede ist.

    Dabei kommt eine spezielle Unterkategorie von Algorithmen zum Zug.

    Die Programmierer reihen nicht Anweisungen à la «Wenn X passiert, dann mache Y» aneinander, die sklavisch befolgt werden.

    Statt dem Computer zu sagen, wie er auf eine Eventualität reagieren soll, lernen hier die Algorithmen.

    Sie treffen ähnlich wie Menschen ihre Entscheidungen aufgrund von «Erfahrungen», die sie gemacht haben.

    Im Idealfall bedeutet das: Je weniger der Mensch eingreift, umso besser.

    Im Kochrezept Beispiel hiesse dies, dass der Algorithmus die optimale Menge an Salz selbst heraustüfteln würde.

    Dafür brauchte er allerdings Feedback in Form von Daten.

    Testesser könnten etwa auf einer Skala von eins bis zehn angeben, wie gut ihnen die Speise geschmeckt hat.

    Der Roboter würde dann so lange mehr oder weniger salzen, bis die Bewertungen nicht mehr besser würden.

    Das menschliche Hirn als Vorbild:

    Der derzeit wichtigste Teilbereich maschinellen Lernens heisst Deep Learning.

    Mittels neuronaler Netze wird gewissermassen das menschliche Hirn simuliert.

    Künstliche Nervenzellen (Neuronen) verarbeiten dabei Informationen in ähnlicher Weise wie ihre biologischen Pendants.

    Der wissenschaftliche Grundstein dafür wurde erst Anfang der 2010er Jahre gelegt.

    Als «Godfather of Deep Learning» gilt Geoffrey E. Hinton, ein britischer Informatiker und Kognitionspsychologe, dessen Startup 2013 von Google gekauft wurde.

    Für den Siegeszug von Deep Learning waren neben dem wissenschaftlichen Durchbruch zwei Faktoren entscheidend: das rasante Wachstum sowohl der Rechenleistung als auch jenes der Datenvolumen.


    Die Daten werden benötigt, um das Computerprogramm zu «trainieren».

    Nur wenn der Datenberg gross genug ist und dessen Verarbeitung vom Rechner bewältigt werden kann, können darin Muster und statistische Korrelationen freigelegt werden.

    Ist dies nicht der Fall, weiss auch der beste Algorithmus nicht, wie er ein vorgegebenes Ziel erreichen kann.

    Plattformen wie Youtube oder die Kurzvideo App Tiktok bieten Algorithmen die besten Voraussetzungen zum Lernen.

    Die Youtube oder Tiktok Nutzer generieren diese Daten selbst: Jedes Mal, wenn jemand ein vorgeschlagenes Video (nicht) anschaut, wird dies registriert.

    Daraus können Rückschlüsse auf die Interessen und Vorlieben der Nutzer gezogen werden.

    So wird versucht, die Verweildauer der Nutzer und damit die Werbeeinnahmen zu maximieren.

    Der Tiktok Algorithmus ist zu gut:

    Besonders erfolgreich scheint dabei Tiktok zu sein.

    Der Historiker Niall Ferguson bezeichnete die App in einem NZZ-Beitrag als «ein digitales Fentanyl, mit dem unsere Kids für das aufkommende chinesische Imperium angeheizt werden».

    Das mag eine allzu steile These sein.

    Unbestritten ist, dass die App ein hohes Suchtpotenzial hat.

    Es ist deshalb plausibel, dass die Trump Regierung gehofft haben könnte, mit dem erzwungenen Verkauf des US-Geschäfts von Tiktok würde sich eine amerikanische Firma den Algorithmus unter den Nagel reissen können.

    Dem hat allerdings Peking einen Riegel vorgeschoben.

    Die chinesische Regierung hat jüngst Exportkontrollen eingeführt, die einen Verkauf des Tiktok Algorithmus ins Ausland de facto blockieren.

    Ein interessantes Detail: Die Tiktok Entwickler scheinen schon fast zu gute Arbeit geleistet zu haben.

    Wem stets serviert wird, was ihm zu gefallen scheint, der landet irgendwann in einer inhaltlichen Monotonie und wendet sich gelangweilt ab.

    Deshalb zeigt Tiktok den Nutzern auch Videos, die ihnen der Algorithmus eigentlich nicht empfehlen würde.

    So wird die persönliche Filterblase zum Platzen gebracht.

    Nicht alle haben es so gut wie Youtube oder Tiktok.

    Manchmal braucht es Fleissarbeit von Menschen, um Trainingsdaten herzustellen, etwa in der medizinischen Diagnostik.

    Wenn ein Algorithmus beispielsweise lernen soll, auf Bildern zwischen einem schwarzen Hautkrebs oder einem ungefährlichen Muttermal zu unterscheiden, muss jedes Foto zunächst der Kategorie «schwarzer Hautkrebs» oder «Muttermal» zugeordnet werden.

    Deep Learning bedroht also nicht nur gewisse Routine Jobs.

    Mit Daten Labler ist auch ein neues Berufsprofil für gering qualifizierte Arbeitskräfte entstanden.


    Künstliche Intelligenz ist beschränkt:

    Damit Deep Learning sinnvoll eingesetzt werden kann, müssen vier Voraussetzungen erfüllt sein:

    1. Daten in ausreichender Menge und Qualität.
    2. Ein leistungsfähiger Algorithmus.
    3. Ein konkretes Ziel, das erreicht werden soll.
    4. Ein eng gefasstes Aufgabenfeld.

    Diese Bedingungen sind selten alle gleichzeitig erfüllt.

    So beeindruckend der Erfolg in eng gefassten Aufgabenfeldern wie der Bild und Spracherkennung auch sein mag: Deep Learning ist keine Wunderwaffe.

    Der erfolgreichste Zweig der künstlichen Intelligenz ist im wahrsten Sinne des Wortes beschränkt.

    Und das dürfte auch noch lange so bleiben.

    KI-Experten wie Andrew Ng oder Rodney Brooks glauben, dass es noch ein weiter Weg ist bis zur allgemeinen künstlichen Intelligenz, also bis zu Maschinen mit ähnlichen intellektuellen Fähigkeiten wie der Mensch.

    Auf absehbare Zeit bedrohen Algorithmen weder die Existenz, noch erlösen sie die Menschen vom Joch der Arbeit.

    Solche Dystopien und Utopien gehören in Science-Fiction-Romane oder Hollywoodfilme.

    Mit der Realität haben solche Phantasien wenig zu tun.

    Profaner, aber realer ist die Gefahr, die von mangelhafter Datenqualität, schlechten Algorithmen oder unsachgemässem Gebrauch der Algorithmen ausgeht.

    2015 sorgte etwa die Bilderkennung von Google für einen Skandal.

    Sie hatte dunkelhäutige Menschen mit Gorillas verwechselt.

    Dass neuronale Netze nach einer scheinbar erfolgreichen Trainingsphase unerwünschte Ergebnisse ausspucken, kommt immer wieder vor.

    Denn sie sind eine Art Blackbox.

    Man wirft oben einen Input hinein, unten kommt ein Output heraus.

    Was dazwischen genau geschieht, ist oft ein Mysterium.




    Quelle: Bitte melde dich an, um diesen Link zu sehen.