Automation - Künstliche Intelligenz - Data Science

Künstlich intelligent werden Technologien genannt, die komplexe Aufgaben bearbeiten, zu deren Lösung nach allgemeinem Verständnis menschliche Intelligenz nötig ist. Mit Mitteln der Mathematik und Informatik wird dabei intelligentes Verhalten simuliert. Je nach Aufgabengebiet fließen zudem andere Wissenschaften ein. Die Kompetenz von künstlichen intelligenten Systemen beschränkt sich dabei bisher auf bestimmte Aufgaben. Es gibt noch keine Ansätze für universelle künstliche Intelligenz, die ein dem menschlichen vergleichbares Bewusstsein hat und sich ihrer selbst "bewusst" ist.

Hauptanforderungen an künstliche Intelligenz sind die Fähigkeiten zu lernen und mit unklaren Informationen umgehen zu können.


Geschichte der KI

Die Idee einer Maschine, die intelligentes Verhalten zeigt, findet sich schon im Spätmittelalter mit dem "Homunculus", einem künstlich geschaffenen Menschen. Nach Aufkommen der Computertechnik und der Informatik fand 1956 eine erste Konferenz von Wissenschaftlern in England statt, die den Namen Artificial Intelligence im Titel trug.

Ob der Vorgang des "Denkens", wie es das menschliche Gehirn tut, an ein solches organisches Gehirn gebunden ist, oder ob "Denken" nur Informationsverarbeitung als ein Rechenvorgang ist, für den es kein Gehirn braucht, ist umstritten. Unabhängig von dieser Frage liegen die Fortschritte in Verfahren, die Ergebnisse liefern, als wären sie menschlichem Denken entsprungen.

Ende der 1960er Jahre machte das Programm ELIZA publikumswirksam auf Möglichkeiten der KI aufmerksam; auf Eingaben hin hielt es mit dem Nutzer einen Dialog im Stile eines Psychotherapeuten mit einem Patienten.

Erfolge hatte die KI in dieser Zeit bei der Simulation von Robotern, beim Beweisen mathematischer Sätze, bei Strategiespielen wie Dame und Schach und bei Expertensystemen. In Expertensystemen ist Wissen eines Fachgebiets als Regeln formalisiert. Bekanntheit erlangte z.B. das Expertensystem MYCIN, das Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten unterstützte.

Überzogene Erwartungen der Entwicklungsgeschwindigkeit und Enttäuschung bei ausbleibenden Durchbrüchen, gefolgt von erneuten Hoffnungen bei neuen Fortschritten, führten über die Jahrzehnte zu einem Auf und Ab der Förderung und der Investitionen im Bereich der KI. So erfüllten Expertensysteme schließlich nicht die in sie gesetzten Erwartungen als universelle Lösung. Das Wissen von Fachgebieten in formale Regeln zu bringen stellte sich vielfach als zu aufwendig heraus.


Maschinelles Lernen

Ein Durchbruch stellte das maschinelle Lernen dar. Der Computer "lernt" dabei die Lösung von Aufgaben anhand zahlreicher Fallbeispiele. Es müssen keine Regeln gefunden und einprogrammiert werden, sondern der Computer lernt durch Mustererkennung, von Eingaben auf die gewünschten zugehörigen Ausgaben zu schließen.

Durch die heute zur Verfügung stehende Rechenleistung kann maschinelles Lernen seit den 2010er Jahren immer besser angewandt werden. Künstliche neuronale Netze ermöglichen dabei Lernverfahren, die unter dem Begriff Deep Learning gefasst werden.

Deep Learning mit künstlichen neuronalen Netzen

Künstliche neuronale Netze nehmen das Modell biologischer neuronaler Netze als Vorbild, sind aber eine Abstraktion und keine Nachbildung dieser. In einem solchen Netz durchläuft eine Daten-Eingabemenge Schichten von "Neuronen" bis zur Ausgabeschicht. In Richtung Ausgabeschicht stehen die Schichten für immer größere Zusammenhänge, die sich aus den vorigen Schichten ergeben.

Wie beim Mensch wird beim Deep Learning das Wissen durch Erfahrungen gewonnen. Diese bewirken einen Anpassungsprozess. Die Eingabedaten werden von Schicht zu Schicht zu immer abstrakteren Informationen verarbeitet - von kleinsten Informationseinheiten in der Eingabeschicht (z.B. Bildpixel) bis hin zur gewünschten Ausgabe in der Ausgabeschicht (z.B. ein erkanntes Objekt als Bildinhalt). Auf dem Weg dorthin werden kleine Muster zu größeren kombiniert. Von Schicht zu Schicht werden dadurch in einem künstlichen neuronalen Netz immer komplexere Informationen repräsentiert. Je größer die Anzahl der Neuronenschichten, umso komplexer können die bearbeiteten Aufgaben sein. Der Begriff Deep Learning leitet sich von der "Tiefe" eines Netzes ab, das es durch die Anzahl der Schichten erlangt.

Das Netz erhält zu einem Aufgabentyp große Mengen von Beispiel-Eingaben (z.B. Tierfotos) und zugehörigen -Ausgaben (ob ein bestimmtes Tier auf dem jeweiligen Foto zu sehen ist). Das neuronale Netz passt dann die Formeln seiner Neuronen immer weiter an, um bei der Analyse der Eingabedaten zu den richtigen Ausgaben bzgl. der gewünschten Fragestellung zu kommen. Diese Methode nennt man "überwachtes Lernen", da der Lernprozess über den Vergleich der Sollwerte mit den Istwerten der Ausgabe funktioniert.

Anwendungsbereiche von Deep Learning

- Analyse und Regelung komplexer Prozesse - Fehlererkennung
- medizinische Diagnostik
- Frühwarnsysteme

- Zeitreihenanalyse
- Mustererkennung (Schrift-, Bild- und Spracherkennung) - Selbstfahrende Automobile

Synthese mit neuronalen Netzen

Künstliche neuronale Netze können nicht nur zur Analyse von Daten, sondern auch in die andere Richtung zur Generierung von Daten erzeugt werden. Dies ermöglicht beispielsweise die "Deepfake" genannte Erzeugung täuschend echt wirkender Bilder und Videos. Solche Verfahren erweitern die bisherigen Möglichkeiten der Manipulation von Bildern. Auch können z.B. Gesichter von Aufnahmen von Personen ausgetauscht und animiert werden.

Data Mining

Während maschinelles Lernen der Erkennung bereits bekannter Muster dient, hat Data Mining das Ziel, bisher unbekannte in großen Datenmengen zu entdecken. Data Mining-Aufgaben sind
- Gruppierung und Klassifizierung von Daten nach Ähnlichkeit
- Identifizierung ungewöhnlicher Datensätze ("Ausreißer") einer Datenmenge

- Identifizierung von Abhängigkeiten und Zusammenhängen in den Daten

Data Mining wird z.B. zur Prozessoptimierung, Rechnungsprüfung und Kundenprofil- und Warenkorbanalyse eingesetzt sowie allgemein in Entscheidungsunterstützungssystemen.

Quantencomputer

Eine große Rolle spielt bei Anwendungen künstlicher Intelligenz die schnelle Verarbeitung großer Datenmengen. Der Quantencomputer ist hierfür ein innovatives Rechnermodell, das auf quantenmechanischen Zuständen und Prinzipien statt auf klassischer Physik (wie das Modell herkömmlicher Computer) beruht.

In klassischen Rechnermodellen ist ein Computer ein System, das endlich viele Zustände einnehmen kann. Der Zustand des Speichers kann dabei als Zeichenfolge der Symbole 0 und 1 dargestellt werden. Dadurch kann der Zustand des Speichers vollständig wiedergegeben werden. Wenn der Speicher dagegen den Gesetzen der Quantenphysik gehorcht, kann der Speicherzustand auch eine Überlagerung verschiedener "klassischer" Zustände sein. Statt Bit nennt sich die Grundeinheit des Quantenspeichers Qubit.

Die definierende Eigenschaft eines Quantencomputers ist die Fähigkeit, klassische Speicherzustände (mit jederzeit klar definierten Werten) in Quantenspeicherzustände umzuwandeln und umgekehrt. Um eine klassische und damit gewohnt klar definierte Ausgabe zu erzeugen, muss der Quantencomputer während einer Berechnung Teile des Speichers zu verschiedenen Zeitpunkten messen.

Der Messprozess ist von Natur aus probabilistisch, was bedeutet, dass bei der Ausgabe eines Quantenalgorithmus der Zufall mitwirkt. Die Aufgabe eines Quantenalgorithmus-Designers ist es, sicherzustellen, dass die Zufälligkeit auf die Anforderungen des jeweiligen Problems zugeschnitten ist. Wenn der Quantencomputer beispielsweise eine Quantendatenbank nach einem von mehreren markierten Objekten durchsucht, kann die Ausgabe so beschaffen sein, dass eines der markierten Objekte zufällig zurückgegeben wird. Der Quantencomputer ist bei dieser Aufgabe erfolgreich, solange es unwahrscheinlich ist, dass ein nicht markiertes Objekt zurückgegeben wird.

Man verspricht sich von Quantencomputern gegenüber klassischen Computern große Geschwindigkeitsvorteile. Davon würden neben der künstlichen Intelligenz auch andere rechenintensive Aufgabenbereiche wie die Kryptographie oder Simulationen komplexer Systeme (z.B. Verhaltenssimulation von Atomen) profitieren.