Ansprechpartner
Bitkom Akademie
Adresse
Albrechtstraße 10
10117 Berlin
Telefon
030.27576-156
Webseite

Dieser praxisorientierte Crashkurs bietet eine kompakte Einführung in Künstliche Intelligenz und Deep Learning mit Python. Die Teilnehmenden lernen, eigene Modelle mit Keras / TensorFlow zu entwickeln, zu trainieren und auf neue Daten anzuwenden. Behandelt werden grundlegende Netzarchitekturen wie MLPs und CNNs, Techniken zur Datenvorbereitung (z. B. Normalisierung, One-Hot-Encoding), sowie wichtige Konzepte wie Aktivierungsfunktionen, Backpropagation und Overfitting. Anhand praktischer Übungen mit dem MNIST-Datensatz und unter Nutzung von GPUs erwerben die Teilnehmenden praxisrelevante Kompetenzen für die Entwicklung eigener Deep-Learning-Modelle.
Als Grundlage für diesen Crashkurs eignet sich der Crashkurs Python für Einsteiger.
Ziele
  In diesem kompakten Kurs erhalten Sie einen fundierten Einstieg in die Welt der Künstlichen Intelligenz und des Deep Learning. Sie lernen die Grundlagen von Neuronalen Netzen und eine erste Anwendung in der Bildverarbeitung kennen. Anhand praktischer Beispiele erstellen und trainieren Sie eigene Modelle im Framework Keras / TensorFlow. Nach Abschluss des Seminars sind Sie in der Lage, einfache Deep-Learning-Modelle zu entwickeln, zu trainieren und auf neue Daten anzuwenden.
Zielgruppen
In diesem kompakten Kurs erhalten Sie einen fundierten Einstieg in die Welt der Künstlichen Intelligenz und des Deep Learning. Sie lernen die Grundlagen von Neuronalen Netzen und eine erste Anwendung in der Bildverarbeitung kennen. Anhand praktischer Beispiele erstellen und trainieren Sie eigene Modelle im Framework Keras / TensorFlow. Nach Abschluss des Seminars sind Sie in der Lage, einfache Deep-Learning-Modelle zu entwickeln, zu trainieren und auf neue Daten anzuwenden.
Inhalte
Einführung in Deep Learning mit Python und Keras/TensorFlow
Datenvorbereitung: Normalisierung, One-Hot-Encoding und Vermeidung von Overfitting
Entwicklung und Training von Multi-Layer Perceptrons (MLP)
Aufbau und Funktionsweise von Convolutional Neural Networks (CNN) zur Bildklassifikation
Training von Netzwerken: Backpropagation, Loss-Funktionen, Gewichtinitialisierung
Seminarbeschreibung
  Daten Vorbereitung
Overfitting beim Trainieren von Machine Learning Algorithmen
Train-Validation-Test Datensplit zur Detektion von Overfitting
Datennormalisierung
One-Hot encoding
Anwendung auf den MNIST Datensatz
Multi-Layer-Perceptron (MLP) in Keras/TensorFlow (Neuronales Netz)
Wichtige Bauteile eines MLPs: Perceptron, Gewichte, Bias
Aktivierungsfunktionen
Softmax bei Klassifizierungsaufgaben
Ein Netzwerk trainieren und auf neue Daten anwenden
Verschiedene Loss-Funktionen
Backpropagation: Trainieren von den GewichtenEpoche und Batch-Size
Den Output während des Trainings interpretieren
Das trainierte Netzwerk zur Vorhersage von neuen Daten verwenden
Convolutional Neural Network (CNN)
Ein Convolution layer (Faltungsschicht)
Filter
Padding und Stride bei der Convolution
Max-Pooling Layer
Was lernt ein CNN auf den unterschiedlichen Layern?
Weitere Informationen zum Seminar
Kontaktieren Sie uns gerne bei Rückfragen zum Seminar: vertrieb@bitkom-akademie.de.
Termine und Orte
| Von | Bis | Ort | Durchführungs- garantie |
Frühbucher bis Betrag |
Lastminute ab Betrag |
|---|---|---|---|---|---|
| 24.04.2026 | 24.04.2026 | Live Online-Kurs |