TL;DR: Red Hat sieht Open Source-lizenzierte Modellgewichtungen in Kombination mit Open Source-Softwarekomponenten als Mindestkriterien für Open Source-KI.
Vor mehr als 30 Jahren erkannte Red Hat das Potenzial von Open Source-Entwicklung und -Lizenzen, bessere Software hervorzubringen und IT-Innovationen voranzutreiben. 30 Millionen Zeilen Code später hat sich Linux nicht nur zur erfolgreichsten Open Source-Software entwickelt, sondern auch zur bislang erfolgreichsten Software überhaupt. Unser Engagement für Open Source-Prinzipien setzt sich bis heute fort – nicht nur in unserem Geschäftsmodell, sondern auch in unserer Unternehmenskultur. Wir sind davon überzeugt, dass diese Konzepte, wenn sie richtig angewandt werden, die gleichen Auswirkungen auf die künstliche Intelligenz (KI) haben können. Dennoch ist die Technologiewelt gespalten in Bezug auf die Frage, was „der richtige Weg“ ist.
KI, insbesondere die Large Language Models (LLMs), auf denen generative KI (gen KI) basiert, können nicht wie Open Source-Software betrachtet werden. Im Gegensatz zu Software bestehen KI-Modelle hauptsächlich aus Modellgewichtungen, also numerischen Parametern, die bestimmen, wie ein Modell Eingaben verarbeitet und welche Verbindungen es zwischen verschiedenen Datenpunkten herstellt. Trainierte Modellgewichtungen sind das Ergebnis eines umfassenden Trainingsprozesses mit großen Mengen an Trainingsdaten, die sorgfältig vorbereitet, gemischt und verarbeitet werden.
Obwohl Modellgewichtungen keine Software sind, haben sie in mancher Hinsicht eine ähnliche Funktion wie Code. Es lässt sich leicht der Vergleich ziehen, dass Daten der Quellcode des Modells sind oder diesem entsprechen. Bei Open Source wird der Quellcode üblicherweise als die „bevorzugte Form“ definiert, mit der Änderungen an der Software vorgenommen werden. Die typischerweise umfangreichen Trainingsdaten hingegen bringen ein kompliziertes Vorabtraining mit sich, bei dem es nur zu einer schwachen und indirekten Verbindung der einzelnen Trainingsdaten zu den trainierten Gewichtungen und dem daraus resultierenden Modellverhalten kommt.
Bei den meisten Verbesserungen und Erweiterungen von KI-Modellen, die derzeit in der Community vorgenommen werden, wird weder auf die ursprünglichen Trainingsdaten zugegriffen, noch werden diese verändert. Diese Optimierungen ergeben sich vielmehr durch Änderungen der Modellgewichtungen oder durch ein Fine Tuning, bei dem auch die Modell-Performance angepasst werden kann. Damit solche Modellverbesserungen vorgenommen werden können, müssen die Gewichtungen mit allen Berechtigungen freigegeben werden, die Nutzende unter Open Source-Lizenzen erhalten.
Open Source-KI aus der Sicht von Red Hat
Red Hat sieht Open Source-lizenzierte Modellgewichtungen in Kombination mit Open Source-Softwarekomponenten als Mindestkriterium für Open Source-KI. Das ist der Ausgangspunkt der Open Source-KI, nicht das endgültige Ziel. Wir ermutigen die Open Source Community, Regulierungsbehörden und die Branche, beim Training und Fine Tuning von KI-Modellen weiterhin nach mehr Transparenz und Ausrichtung an Open Source-Entwicklungsprinzipien zu streben.
Dies ist die Perspektive von Red Hat dazu, wie wir uns als Open Source-basiertes Software-Ökosystem in der Praxis für Open Source-KI einsetzen können. Es handelt sich nicht um den Versuch einer formalen Definition ähnlich der Open Source AI Definition (OSAID) der Open Source Initiative (OSI). Unser jetziger Standpunkt ist lediglich unsere Sichtweise, wie Open Source-KI für möglichst viele Communities, Organisationen und Anbieter realisierbar und zugänglich gemacht werden kann.
Diesen Ansatz setzen wir durch unsere Arbeit in Open Source Communities, insbesondere im von Red Hat geleiteten InstructLab-Projekt, und unsere Zusammenarbeit mit IBM Research bei der Granite-Familie von Open Source-lizenzierten Modellen um. InstructLab erleichtert KI-Modellbeiträge von allen, die nicht über Erfahrung als Data Scientists verfügen, erheblich. Mit InstructLab können Domainfachkräfte verschiedener Branchen ihre Kompetenzen und Kenntnisse in InstructLab einbringen – sowohl für die interne Verwendung als auch zur Entwicklung eines gemeinsamen, allgemein zugänglichen Open Source-KI-Modells für Upstream Communities.
Die Granite-Modellfamilie verfügt über eine umfassende Open Source-Lizenz und ermöglicht eine breite Palette von Use Cases für die KI, vom Generieren von Code über Natural Language Processing (NLP) bis hin zum Analysieren umfangreicher Datensätze. Wir haben IBM Research dabei geholfen, eine Familie von Granite Code-Modellen in die Open Source-Welt zu bringen, und unterstützen die Modellfamilie auch weiterhin, sowohl im Hinblick auf Open Source als auch im Rahmen unseres Red Hat AI Angebots.
Die Begeisterung nach den jüngsten Ankündigungen von DeepSeek zeigt, wie sich Open Source-Innovationen auf KI auswirken können – nicht nur auf Modellebene, sondern auch darüber hinaus. Es gibt offensichtlich Bedenken hinsichtlich des Ansatzes von DeepSeek, insbesondere weil die Lizenz des Modells nicht klarstellt, wie es hergestellt wurde. Dies verstärkt die Notwendigkeit für Transparenz noch weiter. Dennoch bestätigt diese Disruption unsere Vorstellung über die Zukunft der KI: eine Open Source-basierte Zukunft mit Ausrichtung auf kleineren, optimierten und offenen Modellen, die sich an spezifische Use Cases für Unternehmen in der Hybrid Cloud anpassen lassen – unabhängig davon, wo sich ihre Daten befinden.
Erweiterung von Open Source-KI über Modelle hinaus
Open Source-Technologien und -Entwicklungsprinzipien sind der Kern unserer KI-Angebote und unseres Red Hat AI Portfolios. Red Hat OpenShift AI basiert auf Containern, die mit Kubernetes, KubeFlow und Open Container Initiative (OCI) konform sind, sowie auf einer Vielzahl weiterer cloudnativer Open Source-Technologien. Red Hat Enterprise Linux AI (RHEL AI) integriert die Open Source-lizenzierten Lösungen der LLMs der Granite-Familie von IBM und das Open Source-Projekt InstructLab.
Die Arbeit von Red Hat im Bereich Open Source-KI erstreckt sich aber weit über InstructLab und die Granite-Modellfamilie hinaus und umfasst auch die Tools und Plattformen, die erforderlich sind, um KI produktiv zu nutzen und einzusetzen. Wir beteiligen uns an einer ständig wachsenden Anzahl von Upstream-Projekten und Communities und haben viele weitere selbst initiiert, darunter:
- RamaLama: Ein Open Source-Projekt, das darauf abzielt, die lokale Verwaltung und Bereitstellung von KI-Modellen reibungsloser und weniger komplex zu gestalten
- TrustyAI: Ein Open Source-Toolkit zur Entwicklung verantwortlicher KI-Workflows
- Climatik: Ein Projekt mit dem Ziel, KI im Energieverbrauch nachhaltiger zu machen
- Podman AI Lab: Ein Entwicklungs-Toolkit für das Experimentieren mit Open Source-LLMs
Unsere kürzliche Ankündigung zu Neural Magic bringt unsere KI-Vision voran und ermöglicht es Unternehmen, kleinere und optimierte KI-Modelle, einschließlich Open Source-lizenzierter Modelle, mit ihren Daten abzustimmen – unabhängig davon, wo sich diese in der Hybrid Cloud befinden. IT-Organisationen können den vLLM-Inferenzserver nutzen, um die Entscheidungen und Ergebnisse dieser Modelle zu steuern und so den Aufbau eines KI-Stacks zu unterstützen, der auf transparenten und unterstützten Technologien basiert.
Für Red Hat ist die Hybrid Cloud der absolute Kern für Open Source-KI. Hybrid Clouds bieten die dringend benötigte Flexibilität, um die geeignete Umgebung für die einzelnen KI-Workloads zu wählen und so Performance, Kosten, Skalierung und Sicherheitsanforderungen zu optimieren. Unsere Plattformen, Ziele und Organisation unterstützen diese Bemühungen. Wir freuen uns darauf, in Zusammenarbeit mit Branchenpartnern, Kunden und der breiteren Open Source Community Innovationen im Bereich Open Source-KI weiter voranzutreiben.
Es gibt ein enormes Potenzial, diese offene Zusammenarbeit auf den KI-Bereich auszuweiten. Wir sehen eine Zukunft, in der die Arbeit an Modellen sowie deren Training transparent gestaltet wird. Unabhängig davon, ob dies nächste Woche oder nächsten Monat geschieht (oder auch schon früher, wenn man bedenkt, wie schnell sich KI weiterentwickelt) – wir werden weiterhin Initiativen unterstützen und fördern, die eine Demokratisierung und offene KI-Welt ermöglichen.
Über den Autor
Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.
During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Original Shows
Interessantes von den Experten, die die Technologien in Unternehmen mitgestalten
Produkte
- Red Hat Enterprise Linux
- Red Hat OpenShift
- Red Hat Ansible Automation Platform
- Cloud-Services
- Alle Produkte anzeigen
Tools
- Training & Zertifizierung
- Eigenes Konto
- Kundensupport
- Für Entwickler
- Partner finden
- Red Hat Ecosystem Catalog
- Mehrwert von Red Hat berechnen
- Dokumentation
Testen, kaufen und verkaufen
Kommunizieren
Über Red Hat
Als weltweit größter Anbieter von Open-Source-Software-Lösungen für Unternehmen stellen wir Linux-, Cloud-, Container- und Kubernetes-Technologien bereit. Wir bieten robuste Lösungen, die es Unternehmen erleichtern, plattform- und umgebungsübergreifend zu arbeiten – vom Rechenzentrum bis zum Netzwerkrand.
Wählen Sie eine Sprache
Red Hat legal and privacy links
- Über Red Hat
- Jobs bei Red Hat
- Veranstaltungen
- Standorte
- Red Hat kontaktieren
- Red Hat Blog
- Diversität, Gleichberechtigung und Inklusion
- Cool Stuff Store
- Red Hat Summit