Grasbrunn (ots) - Nach der ersten Experimentierphase mit KI stehen viele
Unternehmen vor entscheidenden Weichenstellungen. Sollen sie Modelle selbst
trainieren oder besser vorgefertigte Varianten nutzen? Wo liegt der richtige Ort
für die Inferenz - in der Cloud, im Rechenzentrum oder bei Hyperscalern? Und wie
lassen sich dabei Kosten, Sicherheit und Abhängigkeiten von einzelnen Anbietern
im Griff behalten? Solche Fragen prägen aktuell den Alltag von IT- und
Fachabteilungen, die KI-Anwendungen nicht nur entwickeln, sondern auch
zuverlässig betreiben müssen. Wie Red Hat diese Fragen beantwortet und welche
Entwicklungen für die Zukunft das Unternehmen sieht, darüber haben wir mit
Gregor von Jagow, Country Manager Germany bei Red Hat, gesprochen.
Viele Unternehmen stehen aktuell vor der Herausforderung, ihre GenAI- und
LLM-Projekte effizient und sicher in den Betrieb zu überführen. Auf welche
Lösungen kommt es aus Ihrer Sicht dabei an?
Wir brauchen unbedingt leistungsfähige Open-Source-Lösungen, die auf
Transparenz, Interoperabilität und Unabhängigkeit aufbauen. Aus diesem Grund
haben wir mit Red Hat AI (https://www.redhat.com/en/products/ai) einen Ansatz
entwickelt, der moderne Container- und Cloud-Technologien mit einem Ökosystem an
Werkzeugen und Modellen verbindet. Damit steht Unternehmen alles zur Verfügung,
um ihre KI-Anwendungen zu entwickeln, zu trainieren und schließlich auch zu
betreiben - ohne an einen Hyperscaler oder eine bestimmte Infrastruktur
gefesselt zu sein.
Viele Unternehmen starten dabei mit Pilotprojekten, stoßen aber schnell auf
Skalierungsprobleme. Wie will Red Hat dabei helfen, den wirtschaftlich
sinnvollen Übergang von der Trainingsphase in den stabilen Betrieb zu meistern?
Pilotprojekte sind meist schnell aufgesetzt, haben in der Realität mit dem
Produktivbetrieb aber wenig zu tun. Entscheidend ist ein strukturiertes
Vorgehen. Mit unseren vorgefertigten Open-Source-Modellen können Unternehmen
erste Ergebnisse erzielen und diese Modelle mit eigenen Daten schrittweise
weiterentwickeln. Gleichzeitig bieten unsere umfangreichen Trainingsressourcen
und Schulungen die notwendige Kompetenz, um Projekte aus der Test-Umgebung in
produktive Systeme mit einer sinnvollen Hosting-Strategie und Inferenz-Servern
zu überführen. Das reduziert Reibungsverluste, beschleunigt Time-to-Value und
sichert Langlebigkeit sowie Innovationsgeschwindigkeit.
Sie betonen die Bedeutung der Hosting-Strategie und Inferenz. Warum sind gerade
diese Aspekte entscheidende Faktoren für den produktiven Einsatz von KI - und
wie unterstützt Red Hat hier?
Im Alltag entscheidet die Inferenz, also das Ausführen trainierter Modelle, über
Kosten, Geschwindigkeit und Skalierbarkeit von KI-Anwendungen. Wer
ausschließlich auf proprietäre Dienste setzt, läuft Gefahr, Kostenexplosionen
und Leistungslücken in Kauf zu nehmen. Mit unseren Open-Source-Lösungen haben
wir hingegen die Möglichkeit, Inferenz unabhängig und flexibel zu machen - ob im
eigenen Rechenzentrum, in der Cloud oder hybrid. Durch eine containerbasierte
Architektur können Unternehmen Workloads dorthin verschieben, wo sie am
effizientesten laufen. Das senkt nicht nur Betriebskosten, sondern stärkt auch
die eigene Souveränität.
Wohin entwickelt sich das Thema Open-Source-Inferenz aus Ihrer Sicht - und
welche Rolle will Red Hat dabei im Ökosystem spielen?
Wir sind überzeugt, dass ein Open-Source-Ansatz langfristig der Schlüssel zu
einer flexiblen und effizienten Nutzung von GenAI und LLMs ist. Es ist durchaus
wahrscheinlich, dass wir hier eine ähnliche Entwicklung wie bei Linux erleben
und Open Source sich als Rückgrat von Inferenz-Lösungen etabliert - egal, ob in
der Cloud, On-Premises oder als hybride Lösung. Die Vorteile dieser Wahlfreiheit
sind auch ein Schwerpunkt auf dem Red Hat Summit in Darmstadt 2025 (https://www.
redhat.com/en/summit/connect/emea/darmstadt-2025?sc_cid=RHCTE1250000463495) , wo
wir zeigen werden, wie Unternehmen Open Source bei der Inferenz in der Praxis
einsetzen können. Unser Ziel ist es, KI-Innovationen nicht nur zu diskutieren,
sondern greifbar zu machen.
Mehr Informationen:
Red Hat AI: https://www.redhat.com/en/products/ai
Zum Red Hat Blog: https://www.redhat.com/en/blog/channel/artificial-intelligence
Pressekontakt:
Debora von Scheliha
Head of Marketing Central Europe (CE)
M: mailto:debora.vonscheliha@redhat.com
Weiteres Material: http://presseportal.de/pm/181249/6139245
OTS: Red Hat
|