Red Hat
AI ist das neue Fundament für Unternehmen. Deshalb hat sich Red Hat zum Ziel gesetzt, dass jedes Unternehmen jedes AI‑Modell auf jeder Hardware und in jeder IT-Umgebung betreiben kann – vollständig auf Basis von Open Source (wie dem Linux-Betriebssystem) und souverän. Dafür arbeitet Red Hat mit zahlreichen Partnern aus dem AI-Umfeld zusammen.
Gerade der Open Source-Ansatz spielt für Red Hat eine wesentliche Rolle: Damit wird Offenheit und Transparenz gewährleistet und sichergestellt, dass Unternehmen die volle Kontrolle über ihre Daten, (AI)-Modelle und Infrastruktur behalten. Zudem werden Abhängigkeiten zu proprietären Anbietern vermieden.
CANCOM unterstützt Sie umfassend dabei, die AI-Lösungen von Red Hat erfolgreich in Ihrem Betrieb einzuführen und zu nutzen.


Unsere Partnerschaft mit Red Hat
Als Premier Partner in der Red Hat Ecosystem Community berät und unterstützt CANCOM Unternehmen, wenn es darum geht, die AI-Lösungen von Red Hat sicher und zuverlässig einzusetzen. Außerdem unterhält CANCOM strategische Partnerschaften mit allen empfohlenen Red Hat Infrastruktur- und Cloudpartnern – und bringt dank umfangreicher Expertise sämtliche Lösungen zusammen. Das Ergebnis: CANCOM rüstet Ihre IT-Infrastruktur für AI.
Leistungsportfolio
Grundsätzlich lassen sich die AI-Lösungen von Red Hat in drei Kategorien aufteilen. Dabei baut der Leistungsumfang der einzelnen Kategorien aufeinander auf.
Red Hat AI Inference Server
Der auf vLLM basierende Inferenzserver sorgt für eine optimale Auslastung der GPUs, verkürzt Reaktionszeiten und verbessert die AI-Modellinferenz führender Open Source AI-Anwendungen in hybriden IT-Umgebungen. Dadurch lassen sich die AI-Modelle schneller und kostengünstiger bereitstellen. In Kombination mit LLM Compressor wird die Effizienz der AI-Inferenz zusätzlich gesteigert, ohne dass Einbußen bei der Performance entstehen.Red Hat Enterprise Linux AI (Red Hat AI Inference Server inklusive)
Mit dieser Plattform können LLMs konsistent und in großem Umfang in einzelnen Serverumgebungen ausgeführt werden. Dafür sorgen Funktionen wie der Image-Modus. Darüber hinaus lassen sich in der gesamten Linux-Umgebung identische Sicherheitsprofile anwenden – und so unterschiedliche Teams in einem einzigen Workflow zusammenführen.Red Hat OpenShift AI (Red Hat AI Inference Server und Enterprise Linux AI inklusive)
Die auf Red Hat OpenShift basierende Plattform ermöglicht das Lifecycle-Management generativer und prädiktiver AI-Modelle in großem Umfang. Unternehmen können damit souveräne und private AI-Modelle und Agenten in verschiedenen Hybrid Cloud-Umgebungen entwickeln, bereitstellen und verwalten.