public cloud compute  gpu

Serwery zaprojektowane z myślą o masowym przetwarzaniu równoległym

Instancje GPU wyposażone są w wydajne procesory graficzne NVIDIA Tesla V100, aby sprostać wymaganiom obliczeń masowo równoległych. Instancje GPU, jako część oferty Public Cloud, łącza zalety zasobów dostarczanych na żądanie z rozliczeniem godzinowym. Są to serwery w chmurze zooptymalizowe pod kątem układów GPU, dedykowane głębokiemu uczeniu i obliczeniom o wysokiej wydajności.

GPU NVIDIA Tesla V100

Instancje GPU od OVH są przeznaczone do pracy w środowisku centrodanowym. Przyspieszają obliczenia związane z wykorzystaniem algorytmów sztucznej inteligencji (AI) i przetwarzania obrazów.

NVIDIA GPU Cloud

Aby zapewnić najwyższy komfort użytkowania rozwiązań, OVH i NVIDIA wspólnie udostępniły platformę pod nowatorskie zastosowania, takie jak deep learning, obliczenia o wysokiej wydajności oraz sztuczna inteligencja. Jest to najprostszy sposób wdrożenia i utrzymania gotowych do użycia kontenerów, akcelerowanych układami GPU z kompleksowego katalogu aplikacji deep learning dostarczanych przez NVIDIA GPU CLOUD. Dowiedz się więcej

Od 1 do 4 kart o gwarantowanej wydajności

Karty Tesla są podłączone bezpośrednio do instancji za pośrednictwem PCI Passthrough z pominięciem warstwy wirtualizacji, tak aby cała ich wydajność była w pełni dedykowana. Istnieje możliwość podłączenia do instancji do 4 kart, aby połączyć ich wydajność. W ten sposób urządzenia fizyczne zapewniają pełną moc obliczeniową Twojej aplikacji.

Parametry NVIDIA Tesla V100

Wydajność z technologią NVIDIA GPU Boost:

Przepustowość dwukierunkowa złącza:

Pamięć CoWoS Stacked HBM2:
  • double-precision 7 teraFLOPS;
  • single-precision 14 teraFLOPS;
  • deep learning 112 teraFLOPS.
  • PCIe 32 GB/s.
  • pojemność, 16 GB HBM2;
  • przepustowość, 900 GB/s.

 

Przykłady zastosowania

Rozpoznawanie obrazów

Wyodrębnianie informacji z obrazów, aby je sklasyfikować, identyfikacja poszczególnych elementów lub tworzenie bogatszych dokumentów jest niezwykle przydatne w wielu dziedzinach. Obrazowanie medyczne, sieci społecznościowe, ochrona i bezpieczeństwo publiczne - dzięki frameworkom, takim jak Caffe2 połączonym z GPU Tesla V100, wszystko to staje się możliwe i łatwo dostępne.

Analiza sytuacji

W zmieniającym się środowisku i w nieprzewidywalnych sytuacjach wymagana jest natychmiastowa reakcja. Dzieje się tak w przypadku autonomicznych samochodów czy podczas analizy ruchu sieciowego. W tych właśnie obszarach mają zastosowanie aplikacje deep learning, które tworzą sieci neuronowe uczące się reagować na zagrożenia w czasie rzeczywistym podczas treningu.

Interakcja człowieka z maszyną

W przeszłości człowiek nauczył się komunikować z maszynami. Teraz żyjemy w w czasach, kiedy maszyny uczą się komunikować z ludźmi. Narzędzia takie jak TensorFlow, czy to poprzez rozpoznawanie głosu czy identyfikację emocji za pomocą dźwięku i wideo, mogą przesuwać granice tych interakcji i otwierać przed nami nowe możliwości.

Gotowy na chmurę?

Załóż konto i zacznij od razu korzystać z usług.

Wdrożenie

1

Uruchom

Uruchom Twoją instancję, wybierając odpowiedni model T1 i obraz z platformy NGC.

2

Konfiguruj

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Korzystaj

Twój framework AI jest gotowy do rozpoczęcia obliczeń.

tarif public cloud

Płatność za instancje GPU

Instancje GPU są rozliczane jak wszystkie inne instancje OVH - w modelu pay-as-you-go na koniec miesiąca. Cena zależy od rozmiaru uruchomionej instancji i czasu jej wykorzystania.