Dieses Repository dient als Vorlage für den Edge AI-Kurs (DLBAIPEAI01_D) und bietet Beispiele sowie Implementierungsansätze für Projekte im Bereich Edge Computing.
Edge AI ermöglicht Berechnungen direkt auf dem physischen Endgerät statt in Cloud-Umgebungen. Das ist entscheidend für u. a. autonome Fahrzeuge, mobile Systeme und cyber-physische Produktionsumgebungen.
Lernziele:
- Systemanforderungen zu bewerten (z. B. Latenz, Datenschutz, Robustheit)
- Ressourcenbeschränkungen von Edge-Geräten einzuschätzen
- Prototyp-Lösungen zu implementieren und Entwurfsentscheidungen nachvollziehbar zu dokumentieren
edge-ai-template/
├── README.md
├── requirements.txt
├── examples/
│ ├── image_classification/
│ │ ├── model_conversion.py
│ │ ├── preprocessing.py
│ │ ├── benchmark.py
│ │ └── data/
│ │ └── sample_images/
│ └── environmental_sensing/
│ ├── model_conversion.py
│ ├── data_ingestion.py
│ ├── alert_system.py
│ └── data/
│ └── simulated_sensor_data.csv
├── docker/
│ └── Dockerfile
├── notebooks/
│ └── edge_ai_course_examples.ipynb
└── docs/
└── implementation_guidelines.md
Dieses Beispiel zeigt, wie Bildklassifizierungsmodelle mithilfe von TensorFlow Lite auf Edge-Geräten erstellt und bereitgestellt werden können.
Dieses Beispiel veranschaulicht die Erstellung leichtgewichtiger Modelle für die Umgebungsüberwachung unter Verwendung von scikit-learn und ONNX Runtime.
Im Ordner Pipeline_example/kws_edge_projekt/ befindet sich ein vollständiges, lehrorientiertes Beispielprojekt für Keyword Spotting (KWS) auf Edge-Geräten (PyTorch):
- Teacher-Modell → Student-Modell → Knowledge Distillation → Quantisierung → Benchmarking
- inkl. 4-stufiger didaktischer Einführung (Woche 1–4) über ausführbare Teaching-Skripte
Didaktische Einführung & Kursablauf:
readme_edge_ai_pipeline.md(Repository-Root)
Projekt-README (Setup/Commands im Projektordner):
Pipeline_example/kws_edge_projekt/README.md
| Aufgabenart | Empfohlene Rahmenwerke |
|---|---|
| Bildklassifizierung | TensorFlow Lite, Mediapipe |
| Umgebungsüberwachung | ONNX Runtime, scikit-learn |
| Spracherkennung | PyTorch Audio, TinyML Examples |
- Klone dieses Repository
- Installiere die Abhängigkeiten:
pip install -r requirements_application_examples.txtoderpip install -r requirements_pipeline_example.txt - Erkunde die Beispiele
- Nutze die Vorlagen als Vorlage und achte auf Einhaltung von Edge-Beschränkungen (z. B. Quantisierung).
- Entwickle modular:
- Datenpipelines (Sensor/Kamera/Audio)
- Modelloptimierung
- Evaluation (Accuracy vs. Latenz)
- Dokumentiere Trade-offs explizit (warum wurde welche Architektur/Optimierung gewählt?).