Transformer
Was ist ein Transformer im Kontext des maschinellen Lernens und wie wird es angewandt? Hier erfahren Sie mehr.
Definition
Der Transformer ist eine neuronale Netzwerkarchitektur, die auf dem Konzept der Selbstaufmerksamkeit (Self-Attention) basiert und ursprünglich für die Sprachverarbeitung entwickelt wurde. Er löste in vielen Bereichen RNNs/CNNs ab und bildet die Grundlage für moderne LLMs (z. B. GPT, BERT).
Besonderheiten
Anwendungen
Transformers revolutionierten maschinelle Übersetzung, Textgenerierung, Textklassifikation und finden inzwischen auch Einsatz in Computer Vision (Vision Transformers) und Multimodalen Modellen (Text-Bild-Kombinationen).