Machine Learning / Maschinelles Lernen

Maschinelles Lernen, auch bekannt unter der englischen Bezeichnung Machine Learning (ML), ist ein Teilbereich der künstlichen Intelligenz, wird aber als einer der Kerntechniken der KI angesehen.

Der Begriff Machine Learning wurde 1959 von Arthur Lee Samuel im Zusammenhang mit der Entwicklung eines Dame-Spielprogramms bei IBM benutzt. Er definierte: Maschinelles Lernen ist ein „Forschungsgebiet, das Computer in die Lage versetzen soll, zu lernen, ohne explizit darauf programmiert zu sein“.

Unter Machine Learning sind Methoden gemeint, in der Programme mithilfe von großen Datenmengen Muster erkennen, Regeln ableiten, lernen und mit dem erlangten Wissen anschließend eine Aufgabe erledigen können. Das ist nützlich, wenn diese Aufgabe nur schwer oder gar nicht durch händisch programmierte Regeln bewältigt werden kann.

Machine Learning kommt in vielen Alltagssituationen zum Einsatz. Zum Beispiel als Spamfilter, bei Produktempfehlungen, der Wettervorhersage, medizinischen Diagnosen und Sprachassistenten.

Worin unterscheidet sich maschinelles Lernen vom menschlichen Lernen?

Menschliches Lernen ist stark kontextabhängig, erfahrungsbasiert und mit einem tiefen Verständnis für Bedeutung, Absicht und Ursache-Wirkung-Beziehungen verbunden. Menschen können, mal mehr mal weniger gut, Gelerntes flexibel auf neue Situationen übertragen. Menschen können schon aus wenigen Beispielen generalisieren und mit Unsicherheit umgehen.
Maschinelles Lernen hingegen basiert auf der Verarbeitung großer Datenmengen und erkennt Muster rein statistisch, ohne ein echtes Verständnis für den Inhalt oder Zusammenhänge. KI-Modelle erlernen nicht die gleichen abstrakten Konzepte wie Menschen, sondern funktionieren eher als komplexe automatisierte Statistiken. Einzelne KI-Modelle sind daher auf klar definierte Aufgaben beschränkt und benötigt viel mehr Daten und Rechenleistung, um ähnliche Leistungen wie der Mensch zu erreichen. Der große Vorteil von KI-Modellen ist, dass sie in der Anwendung schneller sind als der Mensch. Zukünftig werden mehrere KI-Modelle in Kombination oder hintereinander arbeiten müssen, um die gleichen Aufgaben erledigen zu können, wie ein Mensch.

Wie funktioniert maschinelles Lernen?

Konzepte wie maschinelles Lernen und neuronale Netze basieren auf der Idee, dass Programme selbstständig lernen können, ohne dass ein Programmierer direkt eingreift. Im Gegensatz dazu konzentriert sich die klassische Programmierung auf ein spezifisches Problem, das eine Software lösen soll.
Ein Beispiel dafür ist die Berechnung der Summe aus einer Eingabe von Zahlen. Dafür gibt es einen Algorithmus, der es ermöglicht, von den Eingaben zum gewünschten Ergebnis zu gelangen. Der Programmierer kennt aus seiner Erfahrung die notwendige Formel, die er in einer beliebigen Programmiersprache umsetzen kann. Entweder nutzt er einen vorgegebenen Befehl oder programmiert die Funktion nach festgelegten Regeln. Für diese Aufgabe benötigt man keine künstliche Intelligenz.

Es gibt allerdings kompliziertere Aufgaben, wo der Weg zum gewünschten Ziel unbekannt ist und somit mit der klassischen Programmierung nicht realisierbar ist. Meistens löst man das dann Schrittweise und mithilfe von Benutzereingaben. Hier kann ein selbstlernender Algorithmen helfen die Aufgabe vollständig und ohne Bedienung und Entscheidung von außen zu lösen.

Die Idee ist, dass beim maschinellen Lernen der Computer die optimale Formel findet, indem eine Software aus den vorgegebenen Daten lernt, welche Ausgabe bei welchen Eingabedaten zu erwarten ist. Über interne Parameter nähert man sich den gewünschten Ergebnissen immer mehr an. Nach dem Lernvorgang (Training) ist die Software in der Lage, für eine noch nie gesehene Eingabe ein gutes oder richtiges Ergebnis auszuwerfen (im Optimalfall).

Damit Programme selbständig Lernen, bedarf es großer Datenmengen, die als Erfahrungswerte dienen und die Grundlage bilden, auf der sich Zusammenhänge zwischen Eingabegrößen ermitteln lassen.

Typen oder Arten des maschinellen Lernens

Machine Learning kann man anhand der Art des Lernens unterscheiden. Es gibt drei Hauptarten:

  • Überwachtes Lernen (Supervised Learning): Lernen anhand von Beispieldaten mit bekannten Ergebnissen.
  • Unüberwachtes Lernen (Unsupervised Learning): Struktur in Daten erkennen ohne vorgegebene Labels.
  • Bestärkendes Lernen (Reinforcement Learning): Lernen durch Belohnung und Bestrafung.

Es gibt noch weitere Abstufungen, die aber in der Praxis nicht so eine große Rolle spielen.

Überwachtes Lernen (Supervised Learning)

Beim überwachten Lernen muss der Datensatz zum Trainieren bzw. Lernen so aufgebaut sein, dass es zu jedem Datenpunkt ein Label gibt, das der Lösung entspricht. Die Trainingsdaten bestehen also aus Eingabebeispielen und den entsprechenden korrekten Ausgabe- oder Zielwerten. Der Algorithmus lernt, aus diesen Daten zu verallgemeinern und Vorhersagen zu treffen. Beispielsweise kann ein Spamfilter Spam-Mails durch überwachtes Lernen erkennen, wenn man E-Mails mit dem Label „Spam“ und „kein Spam“ markiert. Ein KI-Modell lernt dann beim Lesen, was Spam von den normalen Mails unterscheidet. Eine solche Aufgabe zum Einordnen bezeichnet man als „Klassifikation“.

Unüberwachtes Lernen (Unsupervised Learning)

Unüberwachtes Lernen funktioniert ohne Labels. Das heißt, das Modell muss in einer Datenmenge Muster erkennen und eigenständig interpretieren. Im Gegensatz zum überwachten Lernen werden keine Zielwerte bereitgestellt. Stattdessen zielt der Algorithmus darauf ab, inhärente Strukturen in den Daten zu entdecken.
Eine typische Aufgabe ist beispielsweise das Erkennen von ungewöhnlichen Kreditkartenabbuchungen in einer Liste von Transaktionen.

Bestärkendes Lernen (Reinforcement Learning)

Beim bestärkenden oder verstärkenden Lernen muss das Modell selbstständig durch Ausprobieren die beste Strategie finden, um ein bestimmtes Ziel zu erreichen. Gute Entscheidungen, die dem Ziel näher kommen, werden „belohnt“, schlechte Entscheidungen dagegen „bestraft“. Der Lernprozess beinhaltet dann eine Optimierung von Parametern, um Fehler zu minimieren. Mit den erlernten Infos probiert es das Modell wieder von vorne.
Reinforcement Learning wird zum Beispiel in Spielen verwendet, um neue oder bessere Strategien zu finden.

Probleme von Machine Learning

Wenn ein KI-Modell etwas falsch erkennt, dann kann man das nicht einfach reparieren. Man kann nur nachtrainieren. Dabei muss man berücksichtigen, dass sich das Modell ändert. Wenn es den Fehler nicht mehr macht, kann es bedeuten, dass dafür etwas anderes falsch gemacht wird. Das Nachtrainieren hat Einfluss auf das ganze Modell, nicht nur auf einen einzelnen Aspekt.

Damit ein KI-Modell gut funktioniert bedarf es großer Datenmengen anhand denen das Modell lernt. Tatsächlich weiß niemand genau, wie groß die optimale Datenbasis für das Training eines KI-Modells ist.

Grundsätzlich setzt man voraus, dass ein KI-Modell auch bei Eingaben gut funktioniert, die es zuvor nie gesehen hat bzw. nicht trainiert wurden. Wenn die Datenmenge beim Training groß genug war, dann funktioniert das meistens. Das heißt aber nicht, dass es in jedem Fall funktioniert. Nach dem Training muss man Test-Daten auf das Modell anwenden, die nicht in den Trainingsdaten enthalten sind, um herauszufinden, ob das Modell auch wirklich funktioniert.

Übersicht: Machine-Learning-Verfahren mit Anwendungsgebieten

Überwachtes Lernen (Supervised Learning)

VerfahrenTypische Anwendungen
Lineare Regression Vorhersage kontinuierlicher Werte (z. B. Hauspreise, Aktienkurse)
Logistische Regression Binäre Klassifikation (z. B. Spam-Filter, Krankheitsdiagnose)
Support Vector Machines (SVM)Textklassifikation, Bilderkennung, Bioinformatik
K-Nearest Neighbors (k-NN)Empfehlungssysteme, Mustererkennung, Betrugserkennung
EntscheidungsbäumeKreditwürdigkeitsprüfung, Kundenklassifikation
Random ForestFeature-Selection, medizinische Diagnostik, Marketinganalysen
Gradient Boosting (z. B. XGBoost, LightGBM)Wettbewerbsfähige Vorhersagen, Finanzmodelle, Kaggle-Competitions
Naive Bayes Textklassifikation (z. B. Sentiment-Analyse), Spam-Erkennung
Neuronale Netze (MLP)Vorhersagen in strukturierten Daten, Sprachverarbeitung, Betrugserkennung

Unüberwachtes Lernen (Unsupervised Learning)

VerfahrenTypische Anwendungen
K-Means ClusteringKundensegmentierung, Mustererkennung, Bildkomprimierung
Hierarchisches ClusteringGenetik, Dokumentenklassifikation, Marktsegmentierung
DBSCANAnomalieerkennung, Geodatenanalyse, Geräuschunterdrückung
Gaussian Mixture Models (GMM)Dichteabschätzungen, Spracherkennung
Principal Component Analysis (PCA)Dimensionsreduktion, Visualisierung, Vorverarbeitung
t-SNEVisualisierung hochdimensionaler Daten, Embedding-Analyse
AutoencoderAnomalieerkennung, Datenkompression, Pretraining für Deep Learning

Bestärkendes Lernen (Reinforcement Learning)

VerfahrenTypische Anwendungen
Q-Learning Spielstrategien (z. B. Pac-Man), Robotik
Deep Q-Networks (DQN) Spiele (z. B. Atari, Go), autonome Systeme
Policy Gradient MethodenRobotiksteuerung, kontinuierliche Aktionsräume
Actor-Critic Methoden Komplexe Entscheidungsfindung (z. B. autonomes Fahren)
Monte Carlo MethodenSimulationen, Finanzmodelle
Temporal Difference LearningOptimierung von Entscheidungsprozessen in Echtzeit

Halbüberwachtes Lernen (Semi-Supervised Learning)

VerfahrenTypische Anwendungen
Self-TrainingTextklassifikation, Webdatenanalyse
Co-TrainingSentiment-Analyse, Spracherkennung
Label PropagationBildklassifikation, Netzwerkdatenanalyse

Selbstüberwachtes Lernen (Self-Supervised Learning)

VerfahrenTypische Anwendungen
Contrastive Learning (z. B. SimCLR, MoCo)Bildverstehen, Ähnlichkeitssuche, Visual Embeddings
Masked Language Modeling (z. B. BERT)Sprachverstehen, Chatbots, Informationsextraktion

Deep Learning Architekturen

ArchitekturTypische Anwendungen
Convolutional Neural Networks (CNN)Bilderkennung, Gesichtserkennung, medizinische Bildanalyse
Recurrent Neural Networks (RNN)Zeitreihenanalyse, Spracherkennung, Übersetzung
Long Short-Term Memory (LSTM)Texterzeugung, Aktienprognosen, Musikgenerierung
Transformer (z. B. BERT, GPT)Sprachmodelle, Übersetzung, Textgenerierung
Generative Adversarial Networks (GANs)Bildsynthese, Deepfakes, Style Transfer

Weitere verwandte Themen:

Lernen mit Elektronik-Kompendium.de

Noch Fragen?

Bewertung und individuelles Feedback erhalten

Freitextaufgaben zum Artikel beantworten, korrigieren lassen und zum Profi werden.

Aussprache von englischen Fachbegriffen

Die Computertechnik-Fibel, das Computer-Buch
Computertechnik-Fibel

Alles was du über Computertechnik wissen musst.

Die Computertechnik-Fibel ist ein Buch über die Grundlagen der Computertechnik, Prozessortechnik, Halbleiterspeicher, Schnittstellen, Datenspeicher, Laufwerke und wichtige Hardware-Komponenten.

Das will ich haben!

Die Computertechnik-Fibel, das Computer-Buch
Computertechnik-Fibel

Alles was du über Computertechnik wissen musst.

Die Computertechnik-Fibel ist ein Buch über die Grundlagen der Computertechnik, Prozessortechnik, Halbleiterspeicher, Schnittstellen, Datenspeicher, Laufwerke und wichtige Hardware-Komponenten.

Das will ich haben!

Artikel-Sammlungen zum Thema Computertechnik

Alles was du über Computertechnik wissen solltest.

Trends in der IT

Trends in der IT

eBook kaufen

Crashkurs IT

Crashkurs IT

eBook kaufen

Digitalisierung

Digitalisierung

eBook kaufen

Quantentechnik

Quantentechnik

eBook herunterladen