Von dem Buch Skalierbare KI/ML-Infrastrukturen haben wir 2 gleiche oder sehr ähnliche Ausgaben identifiziert!
Falls Sie nur an einem bestimmten Exempar interessiert sind, können Sie aus der folgenden Liste jenes wählen, an dem Sie interessiert sind:
100%: Oliver Liebel: Skalierbare KI/ML-Infrastrukturen (ISBN: 9783836273954) Rheinwerk Verlag GmbH, in Deutsch, auch als eBook.
Nur diese Ausgabe anzeigen…
Nur diese Ausgabe anzeigen…
100%: Oliver Liebel: Skalierbare KI/ML-Infrastrukturen (ISBN: 9783836273930) Rheinwerk Verlag GmbH, in Deutsch, Broschiert.
Nur diese Ausgabe anzeigen…
Nur diese Ausgabe anzeigen…
Skalierbare KI/ML-Infrastrukturen - 4 Angebote vergleichen
Bester Preis: Fr. 78.13 (€ 79.90)¹ (vom 30.11.2022)1
Skalierbare KI/ML-Infrastrukturen
DE NW
ISBN: 9783836273930 bzw. 3836273934, in Deutsch, Rheinwerk, neu.
Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen.Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks. Aus dem Inhalt: KI/ML: Grundlagen und Use Cases Infrastruktur planen: On-Premises, Cloud oder Hybrid? Technischer Background: KI/ML mit NVIDIA-GPUs GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU NVIDIA-GPUs auf vSphere On-Prem implementieren NVIDIA AI Enterprise KI/ML-Cluster mit Kubernetes und OpenShift GPU-spezifische Operatoren GPU-Cluster mit OpenShift Von CI/CD über GitOps zu MLOps ML-Pipelines & AI End-to-End, Oliver Liebel, 24.0 x 19.0 cm, Buch.
2
Skalierbare KI/ML-Infrastrukturen (eBook, ePUB)
~DE NW EB
ISBN: 9783836273954 bzw. 3836273950, vermutlich in Deutsch, Rheinwerk Verlag GmbH, neu, E-Book.
Lieferung aus: Österreich, Erscheint vor. 05.01.23, Versandkostenfrei innerhalb von Deutschland.
Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen. Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks. Aus dem Inhalt: KI/ML: Grundlagen und Use Cases Infrastruktur planen: On-Premises, Cloud oder Hybrid? Technischer Background: KI/ML mit NVIDIA-GPUs GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU NVIDIA-GPUs auf vSphere On-Prem implementieren NVIDIA AI Enterprise KI/ML-Cluster mit Kubernetes und OpenShift GPU-spezifische Operatoren GPU-Cluster mit OpenShift Von CI/CD über GitOps zu MLOps ML-Pipelines & AI End-to-End.
Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen. Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks. Aus dem Inhalt: KI/ML: Grundlagen und Use Cases Infrastruktur planen: On-Premises, Cloud oder Hybrid? Technischer Background: KI/ML mit NVIDIA-GPUs GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU NVIDIA-GPUs auf vSphere On-Prem implementieren NVIDIA AI Enterprise KI/ML-Cluster mit Kubernetes und OpenShift GPU-spezifische Operatoren GPU-Cluster mit OpenShift Von CI/CD über GitOps zu MLOps ML-Pipelines & AI End-to-End.
3
Skalierbare KI/ML-Infrastrukturen
DE HC NW
ISBN: 3836273934 bzw. 9783836273930, in Deutsch, Rheinwerk Verlag GmbH, gebundenes Buch, neu.
Lieferung aus: Deutschland, Versandkostenfrei, published soon.
Skalierbare KI/ML-Infrastrukturen ab 79.9 € als gebundene Ausgabe: NVIDIA-GPUs in Container-Systemen - Expertenwissen zur Evaluierung Automatisierung und für die Praxis. Aus dem Bereich: Bücher, Ratgeber, Computer & Internet,.
Skalierbare KI/ML-Infrastrukturen ab 79.9 € als gebundene Ausgabe: NVIDIA-GPUs in Container-Systemen - Expertenwissen zur Evaluierung Automatisierung und für die Praxis. Aus dem Bereich: Bücher, Ratgeber, Computer & Internet,.
4
Skalierbare KI/ML-Infrastrukturen
DE NW EB
ISBN: 9783836273954 bzw. 3836273950, in Deutsch, Rheinwerk Verlag GmbH, neu, E-Book.
Lieferung aus: Deutschland, Versandkostenfrei, published soon.
Skalierbare KI/ML-Infrastrukturen ab 79.9 € als epub eBook: Evaluieren Automatisieren Praxis. Aus dem Bereich: eBooks, Sachthemen & Ratgeber, Computer & Internet,.
Skalierbare KI/ML-Infrastrukturen ab 79.9 € als epub eBook: Evaluieren Automatisieren Praxis. Aus dem Bereich: eBooks, Sachthemen & Ratgeber, Computer & Internet,.
Lade…