RHEL AI kommt: Wofür braucht das Enterprise-Linux die KI?

Ein Image-Modus für RHEL und das neue RHEL AI – beim Summit zeigte Red Hat interessante Neuerungen für sein Unternehmens-Linux.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

(Bild: Generiert mit Midjourney durch iX)

Lesezeit: 4 Min.
Von
  • Udo Seidel

Auf dem Summit zeigte Red Hat den neuen Image-Modus für RHEL: Hierbei handelt es sich um eine moderne Methode, um installierbare Abbilder des Betriebssystems zu erstellen. Anstelle von kickstart und dnf nutzt man hier Methoden aus der Container-Welt. Technisch basiert das auf dem Projekt bootc, das sogenannte boot-bare Container verwendet. Sie enthalten einen Kernel und für den Image-Modus OSTree. Eine Basis-Version von RHEL gibt es beim Hersteller, die sich dann über eine Container-Datei anpassen und sofort verwenden lässt. Mit weiteren Werkzeugen kann man das Konstrukt auch für KVM oder in der Cloud verwenden. Der Image-Modus für RHEL ist als technische Vorschau jetzt schon verfügbar.

Das Gleiche gilt für das neue RHEL-Familienmitglied: Red Hat Enterprise Linux AI. Kernbestandteil ist natürlich das bekannte Betriebssystem, das man als direkt bootfähiges Abbild vom Hersteller erhält. Das übliche Abo-Modell ist ebenfalls dabei. Dazu gesellt Red Hat eben jene Granit-Modelle, die es zusammen mit IBM unter eine Open-Source-Lizenz gestellt hat. Die dritte wesentliche Komponente kommt vom Projekt InstructLab – ebenfalls erst taufrisch der Welt vorgestellt. Es benutzt die von IBM entwickelte LAB-Technik zum Verbessern von LLMs. Und letzteres soll RHEL AI jetzt vereinfachen, sowohl beim technischen Zugang als auch beim tatsächlichen Anpassen. Die gesamte KI-Community soll davon profitieren, was sich dann in verbesserten Anwendungen wie Chatbots niederschlägt.

Dazu passt dann auch das Podman AI Lab. Hierbei handelt es sich um eine Erweiterung von Podman Desktop, sie ist bereits verfügbar. Sie soll das Entwickeln von KI-basierten Anwendungen erleichtern. So lässt sich die geschriebene Software lokal gegen Modelle testen; Dinge wie der Datenzugriff oder auch die Sicherheit sind durch Standards für den Entwickler vereinfacht. Sogar das Anpassen von Modellen ist möglich. Außerdem gibt es einen Katalog mit repräsentativen Beispielanwendungen, um den Einstieg selbst für Neulinge zu erleichtern. Die LLMs decken bekannte Anwendungsfälle wie Textzusammenfassungen, Chatbots, optische Objektidentifizierung, Ton-zu-Text-Umwandlung und Generieren von Quellcode ab.

Die letzte KI-Neuerung kommt aus dem Kubernetes-Bereich – dem Projekt Konveyor. Es will beim Modernisieren von Applikationen helfen. Typische Aufgaben sind das Überprüfen, ob die Anwendung reif für Container ist oder welche Änderungen dafür nötig wären. Das Abschätzen von Migrationsaufwänden gehört ebenfalls dazu. Red Hat plant Konveyor in den nächsten Monaten mit generativer KI auszustatten. So soll diese noch mehr Hilfestellungen bei der Anwendungsmodernisierung geben.

Red Hat hat also auf dem Summit ein umfangreiches KI-Portfolio vorgestellt. Der Schwerpunkt ist dabei im Plattform-Bereich. Es gibt auch ausreichend Verknüpfungen zu den Entwicklern und Data-Scientists.

Zu guter Letzt gab es noch eine Ankündigung abseits der KI: Basierend auf Kuadrant veröffentlicht Red Hat eine Vorschauversion für Entwickler von Connectivity Link. Ersteres Open-Source-Projekt will die Verbindung zwischen Kubernetes-Applikationen verbessern. Hierunter fallen zum einen die direkte technische Verbindung, aber auch die generelle Sicherheit der Verbindung, der Schnittstellen und das Verwalten von Richtlinien. Red Hat Connectivity Link verbindet nun die Fähigkeiten von Kuadrant mit OpenShift. Damit stehen dem Nutzer beispielsweise eine globale Lastverteilung, Verwaltung von Multicluster-Ingress-Instanzen, Authentisierung und Autorisierung und andere Aspekte aus dem API-Bereich zur Verfügung. Erscheinen soll Connectivity Link in der zweiten Hälfte des Jahres 2024.

(fo)