Direkt zum Inhalt
HeimDer blogKünstliche Intelligenz (KI)

Die 8 besten Open-Source-LLMs für 2024 und ihr Nutzen

Entdecke einige der leistungsfähigsten Open-Source-LLMs und warum sie für die Zukunft der generativen KI entscheidend sein werden
Aktualisierte 10. Sept. 2024  · 13 Min. lesen

Die aktuelle generative KI-Revolution wäre ohne die sogenannten großen Sprachmodelle (LLMs) nicht möglich. LLMs basieren auf Transformatoren, einer leistungsstarken neuronalen Architektur, und sind KI-Systeme, die zur Modellierung und Verarbeitung menschlicher Sprache eingesetzt werden. Sie werden als "groß" bezeichnet, weil sie Hunderte von Millionen oder sogar Milliarden von Parametern haben, die anhand eines riesigen Textdatenkorpus trainiert wurden.

Starte unserenLarge Language Models (LLMs) Concepts Course, um mehr darüber zu erfahren, wie LLMs funktionieren.

LLM sind die Grundmodelle von beliebten und weit verbreiteten Chatbots wie ChatGPT und Google Bard. ChatGPT basiert auf GPT-4, einem LLM, das von OpenAI entwickelt wurde und ihr gehört, während Google Bard auf Googles PaLM 2-Modell basiert.

ChatGPT und Bard sowie viele andere beliebte Chatbots haben gemeinsam, dass ihre zugrunde liegende LLM proprietär ist. Das bedeutet, dass sie einem Unternehmen gehören und von den Kunden nur nach dem Kauf einer Lizenz genutzt werden können. Diese Lizenz ist mit Rechten verbunden, aber auch mit möglichen Einschränkungen bei der Nutzung des LLM sowie mit begrenzten Informationen über die Mechanismen hinter der Technologie.

Doch es gibt eine parallele Bewegung im LLM-Bereich, die schnell an Fahrt gewinnt: Open-Source-LLMs. Nachdem die Besorgnis über die mangelnde Transparenz und eingeschränkte Zugänglichkeit proprietärer LLMs, die hauptsächlich von Big Tech wie Microsoft, Google und Meta kontrolliert werden, immer größer wurde, versprechen Open-Source-LLMs, das schnell wachsende Feld der LMMs und generativen KI zugänglicher, transparenter und innovativer zu machen.

In diesem Artikel geht es um die besten Open-Source-LLMs, die im Jahr 2023 angeboten werden. Obwohl erst ein Jahr seit dem Start von ChatGPT und der Popularisierung von (proprietären) LLMs vergangen ist, hat die Open-Source-Gemeinschaft bereits wichtige Meilensteine erreicht: Es gibt eine ganze Reihe von Open-Source-LLMs für verschiedene Zwecke. Lies weiter, um die beliebtesten zu sehen!

KI-Anwendungen entwickeln

Lerne, wie man KI-Anwendungen mit der OpenAI API erstellt.

Start Upskilling for Free

Vorteile der Nutzung von Open-Source-LLMs

Es gibt zahlreiche kurz- und langfristige Vorteile, wenn du dich für Open-Source-LLMs anstelle von proprietären LLMs entscheidest. Unten findest du eine Liste mit den wichtigsten Gründen:

Verbesserte Datensicherheit und Datenschutz

Eine der größten Sorgen bei der Verwendung von proprietären LLMs ist das Risiko von Datenlecks oder unbefugtem Zugriff auf sensible Daten durch den LLM-Anbieter. In der Tat gab es bereits mehrere Kontroversen über die angebliche Nutzung persönlicher und vertraulicher Daten für Schulungszwecke.

Durch den Einsatz von Open-Source-LLM sind die Unternehmen allein für den Schutz der personenbezogenen Daten verantwortlich, da sie die volle Kontrolle darüber behalten.

Kosteneinsparungen und geringere Abhängigkeit von Lieferanten

Die meisten proprietären LLMs erfordern eine Lizenz, um sie zu nutzen. Langfristig kann das eine große Ausgabe sein, die sich manche Unternehmen, vor allem KMU, nicht leisten können. Das ist bei Open-Source-LLMs nicht der Fall, da sie normalerweise kostenlos genutzt werden können.

Es ist jedoch wichtig zu wissen, dass der Betrieb von LLMs beträchtliche Ressourcen erfordert, sogar nur für die Inferenz, was bedeutet, dass du normalerweise für die Nutzung von Cloud-Diensten oder leistungsstarker Infrastruktur bezahlen musst.

Transparenz des Codes und Anpassung des Sprachmodells

Unternehmen, die sich für Open-Source-LLMs entscheiden, haben Zugang zur Funktionsweise der LLMs, einschließlich des Quellcodes, der Architektur, der Trainingsdaten und der Mechanismen für Training und Inferenz. Diese Transparenz ist der erste Schritt zur Überprüfung, aber auch zur Anpassung.

Da Open-Source-LLMs für jedermann zugänglich sind, einschließlich ihres Quellcodes, können die Unternehmen, die sie nutzen, sie für ihre speziellen Anwendungsfälle anpassen.

Aktive Unterstützung der Gemeinschaft und Förderung von Innovationen

Die Open-Source-Bewegung verspricht, die Nutzung und den Zugang von LLM und generativen KI-Technologien zu demokratisieren. Die Möglichkeit, das Innenleben von LLMs zu untersuchen, ist der Schlüssel für die zukünftige Entwicklung dieser Technologie. Indem sie die Einstiegshürden für Programmierer auf der ganzen Welt senken, können Open-Source-LLMs Innovationen fördern und die Modelle verbessern, indem sie Verzerrungen reduzieren und die Genauigkeit und Gesamtleistung erhöhen.

Den ökologischen Fußabdruck der KI angehen

Nach der Verbreitung von LLMs machen sich Forscher/innen und Umweltschützer/innen Sorgen über den CO2-Fußabdruck und den Wasserverbrauch, der für den Betrieb dieser Technologien erforderlich ist. Proprietäre LLMs veröffentlichen nur selten Informationen über die Ressourcen, die für die Ausbildung und den Betrieb von LLMs benötigt werden, und über den damit verbundenen ökologischen Fußabdruck.

Mit dem quelloffenen LLM haben Forscher mehr Möglichkeiten, diese Informationen zu erfahren, was die Tür für neue Verbesserungen öffnen kann, um den ökologischen Fußabdruck der KI zu verringern.

8 Top Open-Source Großsprachenmodelle für 2024

1. LLaMA 3.1

Die meisten Top-Akteure im LLM-Bereich haben sich dafür entschieden, ihren LLM hinter verschlossenen Türen aufzubauen. Meta bildet jedoch mit seiner Reihe von Open-Source-LLMs, zu denen jetzt auch die neueste LLaMA 3.1 gehört, weiterhin eine Ausnahme.

LLaMA 3.1 wurde am 23. Juli 2024 veröffentlicht und enthält Modelle mit 8B, 70B und zum ersten Mal 405B Parametern, was es zum größten in der Reihe macht. Diese Modelle wurden entwickelt, um eine Vielzahl von Aufgaben zur Verarbeitung natürlicher Sprache in verschiedenen Sprachen wie Englisch, Spanisch, Portugiesisch, Deutsch, Thai, Französisch, Italienisch und Hindi zu bewältigen.

Die LLaMA 3.1-Modelle unterstützen eine erheblich größere Kontextlänge von 128.000 Token, was ihre Fähigkeit, längere Texte zu verarbeiten und zu verstehen, deutlich verbessert.

Vor allem das Modell 405B ist ein Kraftpaket für die Generierung synthetischer Daten, die zum Trainieren anderer Modelle verwendet werden können, und für die Wissensdestillation, mit der das Wissen aus diesem großen Modell auf kleinere, effizientere Modelle übertragen werden kann. Diese Fähigkeit eröffnet neue Möglichkeiten für den Einsatz von fortschrittlicher KI in ressourcenbeschränkten Umgebungen.

Außerdem nutzt LLaMA 3.1 weiterhin das Verstärkungslernen aus menschlichem Feedback (RLHF), um sicherzustellen, dass die Modelle mit den menschlichen Präferenzen für Hilfsbereitschaft und Sicherheit übereinstimmen.

Mehr über LLaMA erfährst du in unserem Artikel Einführung in LLaMA von Meta AI und in unserem Artikel Feinabstimmung von LLaMA 3.1.

2. BLOOM

image6.png

BLOOM wurde 2022 nach einem einjährigen Gemeinschaftsprojekt mit Freiwilligen aus über 70 Ländern und Forschern von Hugging Face ins Leben gerufen. BLOOM ist ein autoregressives LLM, das darauf trainiert ist, Text aus einer Eingabeaufforderung auf riesigen Mengen von Textdaten fortzusetzen, indem es Rechenressourcen im industriellen Maßstab nutzt.

Die Veröffentlichung von BLOOM war ein wichtiger Meilenstein für die Demokratisierung der generativen KI. Mit 176 Milliarden Parametern ist BLOOM einer der leistungsfähigsten Open-Source-LLMs, der kohärente und genaue Texte in 46 Sprachen und 13 Programmiersprachen liefern kann.

Transparenz ist das Rückgrat von BLOOM, einem Projekt, bei dem jeder auf den Quellcode und die Trainingsdaten zugreifen kann, um es auszuführen, zu untersuchen und zu verbessern.

BLOOM kann kostenlos über das Ökosystem von Hugging Face genutzt werden.

3. BERT

image5.png

Die Technologie, die dem LLM zugrunde liegt, ist eine Art neuronale Architektur, die Transformator genannt wird. Sie wurde 2017 von Google-Forschern in dem Papier Attention is All You Need entwickelt. Eines der ersten Experimente, mit dem das Potenzial von Transformatoren getestet wurde, war BERT.

BERT (Bidirectional Encoder Representations from Transformers) wurde 2018 von Google als Open-Source-LLM auf den Markt gebracht und hat in vielen Aufgaben der natürlichen Sprachverarbeitung schnell Spitzenleistungen erzielt.

Dank seiner innovativen Funktionen aus der Anfangszeit der LLMs und seiner Open-Source-Natur ist Bert eines der beliebtesten und am weitesten verbreiteten LLMs. Im Jahr 2020 gab Google zum Beispiel bekannt, dass es Bert über die Google-Suche in über 70 Sprachen eingeführt hat.

Derzeit gibt es Tausende von kostenlosen Open-Source-Modellen, die von Bert für bestimmte Anwendungsfälle trainiert wurden, z. B. für die Analyse von Stimmungen, klinischen Notizen und die Erkennung von toxischen Kommentaren.

Interessierst du dich für die Möglichkeiten des BERT? Schau dir unseren Artikel Einführung in BERT an.

4. Falcon 180B

image2.png

Nachdem der Falcon 40B bereits die Open-Source-LLM-Gemeinschaft beeindruckt hat (er belegte Platz 1 auf der Hugging Face-Rangliste für große Open-Source-Sprachmodelle), deutet der neue Falcon 180B darauf hin, dass sich die Lücke zwischen proprietären und Open-Source-LLMs schnell schließt.

Der Falcon 180B wird vom Technology Innovation Institute der Vereinigten Arabischen Emirate im September 2023 herausgegeben und auf 180 Milliarden Parameter und 3,5 Billionen Token trainiert. Mit dieser beeindruckenden Rechenleistung hat Falcon 180B bereits LLaMA 2 und GPT-3.5 bei verschiedenen NLP-Aufgaben übertroffen und Hugging Face deutet darauf hin, dass es mit Googles PaLM 2, dem LLM, der Google Bard antreibt, mithalten kann.

Obwohl der Falcon 180B für die kommerzielle und wissenschaftliche Nutzung kostenlos ist, ist es wichtig zu wissen, dass er wichtige Computerressourcen benötigt, um zu funktionieren.

5. OPT-175B

image9.png

Die Veröffentlichung der Open Pre-trained Transformers Language Models (OPT) im Jahr 2022 war ein weiterer wichtiger Meilenstein in der Strategie von Meta, das LLM-Rennen durch Open Source zu befreien.

OPT besteht aus einer Reihe von vortrainierten Decodern, die zwischen 125M und 175B Parametern liegen. OPT-175B, einer der fortschrittlichsten Open-Source-LLMs auf dem Markt, ist der leistungsstärkste Bruder, mit einer ähnlichen Leistung wie GPT-3. Sowohl die vortrainierten Modelle als auch der Quellcode sind öffentlich zugänglich.

Wenn du jedoch daran denkst, ein KI-gesteuertes Unternehmen mit LLMs zu entwickeln, solltest du dir eine andere Lösung überlegen, denn OPT-175B wird unter einer nicht-kommerziellen Lizenz veröffentlicht, die nur die Nutzung des Modells für Forschungszwecke erlaubt.

6. XGen-7B

image8.png

Immer mehr Unternehmen stürzen sich in das Rennen um den LLM. Einer der letzten, die in den Ring sprangen, war Salesforce, das sein XGen-7B LLM im Juli 2023 auf den Markt brachte.

Den Autoren zufolge konzentrieren sich die meisten Open-Source-LLMs darauf, umfangreiche Antworten mit wenigen Informationen zu liefern (d.h. kurze Aufforderungen mit wenig Kontext). Die Idee hinter XGen-7B ist es, ein Werkzeug zu entwickeln, das längere Kontextfenster unterstützt. Insbesondere die fortschrittlichste Variante von XGen (XGen-7B-8K-base) ermöglicht ein 8K-Kontextfenster, d.h. die kumulative Größe des Eingabe- und Ausgabetextes.

Effizienz ist eine weitere wichtige Priorität von XGen, das nur 7B Parameter für das Training benötigt, weit weniger als die meisten leistungsstarken Open-Source-LLMs, wie LLaMA 2 oder Falcon.

Trotz seiner relativ geringen Größe kann der XGen großartige Ergebnisse liefern. Das Modell steht für kommerzielle und Forschungszwecke zur Verfügung, mit Ausnahme der VarianteXGen-7B-{4K,8K}-inst, die auf Unterrichtsdaten und RLHF trainiert wurde und unter einer nicht-kommerziellen Lizenz veröffentlicht wird.

7. GPT-NeoX und GPT-J

image1.png

GPT-NeoX und GPT-J wurden von Forschern von EleutherAI, einem gemeinnützigen KI-Forschungslabor, entwickelt und sind zwei großartige Open-Source-Alternativen zu GPT.

GPT-NeoX hat 20 Milliarden Parameter, während GPT-J 6 Milliarden Parameter hat. Obwohl die meisten fortschrittlichen LLMs mit über 100 Milliarden Parametern trainiert werden können, können diese beiden LLMs immer noch Ergebnisse mit hoher Genauigkeit liefern.

Sie wurden mit 22 qualitativ hochwertigen Datensätzen aus verschiedenen Quellen trainiert, so dass sie in vielen Bereichen und für viele Anwendungsfälle eingesetzt werden können. Im Gegensatz zu GPT-3 sind GPT-NeoX und GPT-J nicht mit RLHF trainiert worden.

Mit GPT-NeoX und GPT-J können alle Aufgaben der natürlichen Sprachverarbeitung durchgeführt werden, von der Texterstellung und Stimmungsanalyse bis hin zur Recherche und Entwicklung von Marketingkampagnen.

Beide LLMs sind kostenlos über die NLP Cloud API verfügbar.

8. Vicuna 13-B

image3.jpg

Vicuna-13B ist ein Open-Source-Konversationsmodell, das durch die Feinabstimmung des LLaMa-13B-Modells mit den von ShareGPT gesammelten Konversationen trainiert wurde.

Als intelligenter Chatbot gibt es unzählige Anwendungsmöglichkeiten für Vicuna-13B. Einige davon werden im Folgenden für verschiedene Branchen wie Kundenservice, Gesundheitswesen, Bildung, Finanzen und Reisen/Gastgewerbe beschrieben.

Eine vorläufige Bewertung, bei der GPT-4 als Maßstab herangezogen wurde, zeigte, dass Vicuna-13B in mehr als 90% der Fälle die Qualität von ChatGPT und Google Bard erreichte und andere Modelle wie LLaMa und Alpaca übertraf.

Die Wahl des richtigen Open-Source LLM für deine Bedürfnisse

Der Bereich der Open-Source-LLM wächst schnell. Heute gibt es viel mehr Open-Source-LLMs als proprietäre, und die Leistungslücke könnte bald geschlossen werden, da Entwickler weltweit zusammenarbeiten, um aktuelle LLMs zu verbessern und optimierte LLMs zu entwickeln.

In diesem lebendigen und spannenden Kontext kann es schwierig sein, den richtigen Open-Source-LLM für deine Zwecke zu wählen. Hier ist eine Liste mit einigen der Faktoren, die du bedenken solltest, bevor du dich für einen bestimmten Open-Source-LLM entscheidest:

  • Was willst du tun? Das ist der erste Punkt, den du dich fragen musst. Open-Source-LLM sind immer offen, aber einige von ihnen werden nur für Forschungszwecke freigegeben. Wenn du also planst, ein Unternehmen zu gründen, solltest du dir über die möglichen Lizenzbeschränkungen im Klaren sein.
  • Warum brauchst du einen LLM? Auch das ist extrem wichtig. LLMs sind derzeit sehr in Mode. Jeder spricht über sie und ihre endlosen Möglichkeiten. Aber wenn du deine Idee auch ohne LLMs verwirklichen kannst, solltest du sie nicht nutzen. Es ist nicht zwingend erforderlich (und du wirst wahrscheinlich eine Menge Geld sparen und weiteren Ressourcenverbrauch verhindern).
  • Wie viel Genauigkeit brauchst du? Das ist ein wichtiger Aspekt. Es besteht ein direkter Zusammenhang zwischen der Größe und der Genauigkeit von modernen LLMs. Das bedeutet insgesamt, dass das Modell umso genauer ist, je größer die LLM in Bezug auf Parameter und Trainingsdaten ist. Wenn du also eine hohe Genauigkeit brauchst, solltest du dich für größere LLMs entscheiden, wie LLaMA oder Falcon.
  • Wie viel Geld willst du investieren? Das hängt eng mit der vorherigen Frage zusammen. Je größer das Modell ist, desto mehr Ressourcen werden für die Schulung und den Betrieb des Modells benötigt. Das bedeutet, dass du zusätzliche Infrastruktur nutzen musst oder eine höhere Rechnung von den Cloud-Anbietern bekommst, wenn du dein LLM in der Cloud betreiben willst. LLMs sind mächtige Werkzeuge, aber sie erfordern beträchtliche Ressourcen, um sie zu nutzen, sogar Open-Source-Tools.
  • Kannst du deine Ziele mit einem vortrainierten Modell erreichen? Warum solltest du Geld und Energie investieren, um dein LLM von Grund auf zu trainieren, wenn du einfach ein bereits trainiertes Modell verwenden kannst? Es gibt viele Versionen von Open-Source-LLMs, die für einen bestimmten Anwendungsfall ausgebildet sind. Wenn deine Idee in einen dieser Anwendungsfälle passt, solltest du sie unbedingt umsetzen.

Weiterqualifizierung deines Teams mit KI und LLMs

Open-Source-LLMs sind nicht nur für einzelne Projekte oder Interessen gedacht. Da die generative KI-Revolution immer schneller voranschreitet, erkennen Unternehmen, wie wichtig es ist, diese Werkzeuge zu verstehen und zu implementieren. LLMs sind bereits eine wichtige Grundlage für fortschrittliche KI-Anwendungen, von Chatbots bis hin zu komplexen Datenverarbeitungsaufgaben. Dass dein Team KI- und LLM-Technologien beherrscht, ist nicht mehr nur ein Wettbewerbsvorteil - es ist eine Notwendigkeit, um dein Unternehmen zukunftssicher zu machen.

Wenn du ein Teamleiter oder Geschäftsinhaber bist, der sein Team mit KI- und LLM-Fachwissen ausstatten möchte, bietet das DataCamp for Business umfassende Schulungsprogramme an, die deinen Mitarbeitern helfen, die Fähigkeiten zu erwerben, die sie brauchen, um diese leistungsstarken Tools zu nutzen. Wir bieten:

  • Gezielte KI- und LLM-Lernpfade: Der Kurs kann an den aktuellen Wissensstand deines Teams und die spezifischen Bedürfnisse deines Unternehmens angepasst werden und deckt alles von grundlegenden KI-Konzepten bis hin zu fortgeschrittener LLM-Entwicklung ab.
  • Praktische KI-Praxis: Projekte aus der Praxis, die sich auf die Erstellung und den Einsatz von KI-Modellen konzentrieren, einschließlich der Arbeit mit gängigen LLMs wie GPT-4 und Open-Source-Alternativen.
  • Fortschrittsverfolgung bei KI-Fähigkeiten: Werkzeuge, um die Fortschritte deines Teams zu überwachen und zu bewerten und sicherzustellen, dass sie die nötigen Fähigkeiten erwerben, um KI-Lösungen effektiv zu entwickeln und umzusetzen.

Die Investition in KI- und LLM-Weiterbildung verbessert nicht nur die Fähigkeiten deines Teams, sondern positioniert dein Unternehmen an der Spitze der Innovation, damit du das volle Potenzial dieser transformativen Technologien nutzen kannst. Setzen Sie sich mit unserem Team in Verbindung, um eine Demo anzufordern und deine KI-fähige Belegschaft noch heute aufzubauen.

Fazit

Open-Source-LLMs befinden sich in einer spannenden Bewegung. Angesichts der rasanten Entwicklung scheint es, dass der Bereich der generativen KI nicht unbedingt von den großen Unternehmen monopolisiert wird, die es sich leisten können, diese leistungsstarken Tools zu entwickeln und einzusetzen.

Wir haben erst acht Open-Source-LLMs gesehen, aber die Zahl ist viel höher und wächst schnell. Wir von DataCamp werden weiterhin über die neuesten Nachrichten im LLM-Bereich informieren und Kurse, Artikel und Tutorials über LLMs anbieten. Schau dir jetzt unsere Liste mit kuratierten Materialien an:

FAQs

Was sind Open-Source-LLMs?

Open-Source-Language-Modelle (LLMs) sind Modelle, deren Quellcode und Architektur öffentlich zur Nutzung, Veränderung und Verbreitung zur Verfügung stehen. Sie basieren auf maschinellen Lernalgorithmen, die menschenähnliche Texte verarbeiten und generieren. Da sie Open Source sind, fördern sie Transparenz, Innovation und die Zusammenarbeit der Gemeinschaft bei ihrer Entwicklung und Anwendung.

Warum sind Open-Source-LLMs wichtig?

Open-Source-LLMs demokratisieren den Zugang zu modernster KI und ermöglichen es Entwicklern auf der ganzen Welt, zu den Fortschritten der KI beizutragen und davon zu profitieren, ohne die hohen Kosten, die mit proprietären Modellen verbunden sind. Sie erhöhen die Transparenz, fördern das Vertrauen und ermöglichen die Anpassung an spezifische Bedürfnisse.

Was sind die üblichen Herausforderungen bei Open-Source-LLMs?

Zu den Herausforderungen gehört der hohe Rechenaufwand für den Betrieb und das Training, der für Einzelpersonen oder kleine Organisationen ein Hindernis darstellen kann. Die Pflege und Aktualisierung der Modelle, um auf dem neuesten Stand der Forschung und der Sicherheitsstandards zu bleiben, kann ohne strukturierte Unterstützung ebenfalls anspruchsvoll sein.

Verdiene eine Top-KI-Zertifizierung

Zeige, dass du KI effektiv und verantwortungsbewusst einsetzen kannst.
Themen

Beginne deine KI-Reise noch heute!

Course

Generative AI Concepts

2 hr
37.2K
Discover how to begin responsibly leveraging generative AI. Learn how generative AI models are developed and how they will impact society moving forward.
See DetailsRight Arrow
Start Course
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Die 32 besten AWS-Interview-Fragen und Antworten für 2024

Ein kompletter Leitfaden zur Erkundung der grundlegenden, mittleren und fortgeschrittenen AWS-Interview-Fragen, zusammen mit Fragen, die auf realen Situationen basieren. Es deckt alle Bereiche ab und sorgt so für eine abgerundete Vorbereitungsstrategie.
Zoumana Keita 's photo

Zoumana Keita

15 Min.

See MoreSee More