NLP & Transformers Workshop

Die Verarbeitung natürliche Sprache ist bereits heute eine der treibenden Kräfte für viele Maschine Learning Anwendungen. Dieser Trend wird sich in den nächsten Jahren noch weiter verstärken. Lernen Sie deshalb bereits heute, wie die damit verbundenen Technologien eingesetzt werden können.

NLP Workshop anfragen

Wir zeigen, wie man NLP für echte Anwendungsfälle nutzt. Ein Workshop von Experten für Experten.

Unser Angebot für Data Science Teams

Natural Language Processing (NLP) ist einer der Innovationstreiber für die Themenbereiche Data Science und Machine Learning. Viele Anwendungsfälle, die noch vor wenigen Jahren unrealistisch waren, sind dadurch heute mit wenig Aufwand umsetzbar.

Die treibende Kraft hinter dieser Entwicklung ist die Verfügbarkeit von vortrainierten Modellen. Besonders im Bereich NLP haben diese Modelle die Art und Weise wie Data Scientists arbeiten stark geprägt. Anstatt eigene Modelle von Grund auf zu trainieren, wird auf bereits vortrainierte Modelle zurückgegriffen. Dies reduziert Aufwand, Abhängigkeit von eigenen Trainingsdaten und verbessert zudem die Ergebnisse.

Nicht nur die Arbeitsweise hat sich damit geändert, sondern auch die dafür notwendigen Tools. Rund um NLP-Modelle hat sich mittlerweile ein eigenes Ökosystem entwickelt. Open Source Frameworks wie Hugging Face „Transformers“ bilden mittlerweile einen zentralen Bestandteil im Werkzeugkasten moderner Data Scientists.

Lernen Sie zusammen mit und von unserem Team wie NLP-Modelle und Tools eingesetzt werden. Neben der praktischen Anwendung enthält unser Workshop auch eine tiefergehende Erklärung der verwendeten Deep Learning Modelle und Methoden. Damit sind zukünftig auch komplexere Probleme keine Hürde mehr.

Highlights

  • Anwendungen mit Hugging Face und PyTorch in Python

    Unser Workshop ist nicht nur eine theoretische Einführung, sondern besteht zur mehr als der Hälfte aus praktischer Anwendung. Dabei nutzen wir state-of-the-art Frameworks wie Hugging Face und PyTorch.

  • Arbeiten mit Encoder (BERT) und Decoder Modellen (GPT-3)

    BERT und GPT-3 sind oftmals bekannte Begriffe. Wie genau beide Modelle funktionieren und wo die Unterschiede liegen, werden wir im Workshop behandeln.

  • Transformer Architektur verstehen und nutzen

    Die Transformer Architektur mit dem damit verbundenen „Attention“-Mechanismus bildet den Kern vieler moderner Deep Learning Modelle. Sie werden im Workshop genauer verstehen, wie und warum dieser funktioniert.

  • Fine-Tuning und Zero-Shot Learning

    Bei der Arbeit mit NLP-Modellen ist Fine-Tuning und Zero-Shot Learning ein essenzieller Bestandteil. Im Workshop werden Sie lernen, was es damit auf sich hat und wie es umsetzte wird.

Unser Workshop.
Ablauf und Ziele.

Tag 1

Einführung in den Themenbereich NLP und das Hugging Face Ökosystem.

Tag 2

Encoder-basierte Modelle (z.B. BERT) für Natural Language Understanding verstehen und anwenden.

Tag 3

Decoder-basierte Modelle (z.B. GPT-3) für Natural Language Generation verstehen und anwenden.

Umgesetzte NLP Projekte.

Ihr Ansprechpartner
für NLP.

Sie würden sich gerne unverbindlich mit uns zum Thema Natural Language Processing (NLP) austauschen? Oder möchten Sie direkt einen Workshop anfragen? Sprechen Sie uns an.

Fabian Müller
COO