Installation der Transformer-Bibliothek
Bevor Sie beginnen, müssen Sie sicherstellen, dass die Transformer-Bibliothek von Hugging Face installiert ist. Führen Sie dazu den folgenden Befehl in einer Colab-Zelle aus:
!pip install transformers
Dieser Befehl lädt die Bibliothek und alle ihre Abhängigkeiten herunter und installiert sie. Stellen Sie sicher, dass Ihre Google Colab Instanz Torch bereits installiert hat.
Das ist wichtig, um sicherzustellen, dass alle notwendigen Komponenten für die Arbeit mit vortrainierten Modellen vorhanden sind.
Laden eines Modells mit Pipelines
Der einfachste Weg, ein vortrainiertes Modell zu laden und zu verwenden, ist die Verwendung von Hugging Face Pipelines. Pipelines kapseln die gesamte Logik, die zum Laden, Vorverarbeiten und Ausführen eines Modells erforderlich ist. Um eine Pipeline zu erstellen, müssen Sie zunächst den Namen des Modells angeben, das Sie verwenden möchten. Im Falle von deepseek AI wäre das:
generator = pipeline('text-generation', model='deepseek-ai/DeepSeek-Coder')
Dieser Code erstellt eine Pipeline für die Textgenerierung und lädt das DeepSeek AI-Modell. Der Name 'deepseek-ai/DeepSeek-Coder' ist entscheidend, da er die korrekte Modellkennung angibt
.
Wichtiger Hinweis: Es ist wichtig, den korrekten Task anzugeben, für den die Pipeline verwendet werden soll. In diesem Fall ist es 'text-generation'.
Verwenden von AutoClass für mehr Flexibilität
Für fortgeschrittenere Anwendungsfälle können Sie AutoClass verwenden, um Modelle und Tokenizer automatisch zu laden und zu konfigurieren. AutoClass erkennt den Modelltyp und lädt automatisch die entsprechenden Klassen. Hier ist ein Beispiel:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "deepseek-ai/DeepSeek-Coder"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
Dieser Code lädt das DeepSeek AI-Modell und den zugehörigen Tokenizer mit AutoClass. Dies bietet mehr Flexibilität und Kontrolle über den Ladevorgang des Modells.