Daniel Wegmann 17.08.2017

Wie mein Computer das Zwitschern lernte

Im Jahr 1996 gewann ein Computer zum ersten Mal eine Schachpartie gegen einen amtierenden Weltmeister. Das war eine gewaltige Leistung, allerdings hatte der spielende Computer nicht etwa selber gelernt, Schach zu spielen. Im Gegenteil: Ein Grossteil der Züge wurde im Vorfeld programmiert, oder der Computer errechnete den besten Zug nach fest definierten Regeln.

Nach aktuellem Verständnis ist dies aber dennoch ein Beispiel für künstliche Intelligenz, denn der Computer war selbständig fähig, auf Züge des Gegners so zu reagieren, dass seine Gewinnchancen erhöht wurden. Ähnlich verhält es sich mit vielen anderen Beispielen von künstlicher Intelligenz. Selbstfahrende Autos zum Beispiel verhalten sich nach definierten Regeln und erlernen das Fahren zum Glück nicht durch ausprobieren auf der Strasse. Dies zeigt, wie weit weg wir immer noch von Systemen sind, die im menschlichen Sinne intelligent sind. Genau wie Deep Blue sind auch selbstfahrende Autos für eine ganz bestimmte Aufgabe programmiert und können nicht selber komplett andere Eigenschaften erlernen.

Allerdings gibt es durchaus Systeme, welche gezielt trainiert werden können, zum Beispiel um Objekte auf Bildern zu erkennen. Kamera-Apps in modernen Smartphones erkennen mühelos Gesichter oder Dokumente und brauchen dazu nicht einmal besonders viel Rechenleistung. Auch selbstfahrende Autos müssen zuverlässig andere Verkehrsteilnehmer erkennen. Wie schwierig das nach wie vor ist, zeigt der bisher einzige tödliche Unfall eines selbstfahrenden Autos, welches einen kreuzenden Lastwagen leider nicht als solchen erkannte.

Für die automatische Objekterkennung werden heute oft künstliche neuronale Netze verwendet. Solche Netze sind Computerprogramme, welche den neuronalen Netzen von Lebewesen nachempfunden sind, zum Beispiel unserem Gehirn. Der grosse Vorteil dabei ist, dass diese Netze aus ganz einfachen mathematischen Bausteinen bestehen (den Neuronen), welche dann zu komplizierten Strukturen verbunden werden können.

Aber wie kann nun ein solches Netz lernen, Objekte zu erkennen? Dazu werden diese künstlichen neuronalen Netze meist in Schichten konstruiert, so dass die Neuronen der ersten Schicht als Signal die Farben von einzelnen Bildpunkten erhalten, diese zu einem neuen Wert verrechnen und an die Neuronen der nächsten Schicht weitergeben. Das Ziel ist es dann, das Netz so zu trainieren, dass jeweils ein Neuron der letzten Schicht nur dann ein Signal produziert, wenn auf dem Bild ein bestimmtes Objekt vorhanden ist. Dazu müssen die Parameter von jedem einzelnen Neuron so justiert werden, dass das Signal am Ende beim richtigen Neuron ankommt. Und diese Justierung nennt man lernen, denn das funktioniert fast so wie bei unserem Hirn auch. Damit ein Netz zum Beispiel lernt, Bilder von Lastwagen von solchen ohne Lastwagen zu unterscheiden, werden dem Netz viele Beispiele von Bildern mit und ohne Lastwagen gezeigt. Für jedes Neuron werden dann die Parameter ermittelt, welche die Erkennung optimieren. Das fertig trainierte Netz kommt dann im Auto oder dem Smartphone zum Einsatz.

In einem aktuellen Forschungsprojekt trainieren wir solche künstlichen neuronalen Netze, um Vogelarten an ihrem Gesang automatisch zu erkennen. Dieses Projekt ist ein gutes Beispiel dafür, dass künstliche Intelligenz nicht nur Arbeitsplätze bedroht, sondern auch ganz neue Dinge ermöglicht, zum Beispiel im Naturschutz. Konkret leisten wir wissenschaftliche Unterstützung beim Aufbau eines neuen Nationalparks in Zentralafrika, unter anderem indem wir die Häufigkeit von Tierarten kartieren. Dazu haben wir an vielen Standorten Aufnahmen von Vogelgesängen gemacht, welche es nun auszuwerten gilt. Alle Vogelarten zweifelsfrei bestimmen können aber nur einige wenige Experten, und diese wollen sich wohl kaum Hunderte von Stunden mit unseren Aufnahmen beschäftigen. Unser Ziel ist es also, den Computer so viele Vogelarten wie möglich selber erkennen zu lassen, so dass wir den Experten nur die kniffligen Fälle vorlegen müssen.

Die Zuverlässigkeit der Computererkennung aber ist direkt abhängig von der Menge an Trainingsdaten, und in Fällen wie den unseren sind diese oft limitiert. Wer in Zukunft stark von künstlicher Intelligenz profitieren wird, hängt also direkt davon ab, wer Zugang zu welchen Daten hat. Darüber müssten wir uns vielleicht vermehrt Gedanken machen, bevor wir unsere Ferienfotos ohne mit der Wimper zu zucken mit Google und Facebook teilen.

 

Daniel Wegmann ist Professor für Bioinformatik an der Universität Freiburg und entwickelt statistische Verfahren, um evolutive und ökologische Prozesse aufgrund grosser Datensätze zu beschreiben. Er hat in Bern und den USA studiert und ist Mitglied einer FN-Autoren-Gruppe, die regelmässig naturwissenschaftliche Themen bearbeitet.