wywiad Intel próbuje przyciągnąć programistów do swojej chmury wczesnym dostępem do niewydanego sprzętu i nowym podejściem do oprogramowania open source, próbując wyróżnić się na tle konkurencji.
Markus Flierl, wiceprezes wykonawczy Intel Developer Cloud, to weteran informatyki, który przed objęciem obecnego stanowiska przetrwał przejęcie Oracle przez firmę Sun i pracę na stanowisku szefa infrastruktury chmurowej GPU w firmie Nvidia.
Flierl wziął udział w niedawnym wydarzeniu Kubecon Europe 2024 i rozpoczął z nami rozmowę, opisując podejście Intela w porównaniu do ukochanej sztucznej inteligencji Nvidii jako „radykalnie odmienne”.
„Wszystko jest otwarte” – mówi. „Zdecydowanie zachęcamy społeczność do zaangażowania się w współpracę z nami, w przeciwieństwie do bardziej zastrzeżonej strategii Nvidii”.
rej Czuje się zobowiązany – dla zachowania równowagi – zaznaczyć, że Nvidia wnosi główny wkład w kilka projektów open source, w tym Kubernetes, Docker i samo jądro Linuksa.
Korporacja intelektualna Niedawno otwarte źródło Profil trwały, opracowany przez firmę Intel Granulate w celu poprawy wydajności procesora. Teoria głosi, że zespół programistów może uruchomić agenta optymalizacyjnego w celu wykrycia wąskich gardeł w kodzie, zwiększając w ten sposób wydajność aplikacji.
Wspominamy Flierlowi, że ta hojność przynosi korzyść firmie Intel. Oprogramowanie zostanie docelowo zoptymalizowane pod kątem urządzeń Intel.
„To prawda, tak” – mówi. „Myślę, że różnica w naszym podejściu w porównaniu z niektórymi naszymi konkurentami polega na tym, że jesteśmy bardzo otwarci. Wierzymy w społeczność i współpracę. To tylko jeden przykład, że to robimy. Chcemy, aby ludzie mogli udoskonalać oprogramowanie i wydobądź jak najwięcej z naszego sprzętu.”
Chmura dla programistów Intela ma na celu zapewnienie programistom dostępu do najnowszego sprzętu firmy Intel, zwykle na kilka dobrych miesięcy, zanim konkurencja w chmurze dostanie się w ręce krzemu. Nie da się jednak uciec od faktu, że Intel pozostaje w pewnym stopniu w tyle za gigantami chmurowymi w zakresie udostępniania centrów danych.
„Obecnie mamy centra danych głównie w Ameryce Północnej” – powiedział nam również Flierl. „Są wynajmowane – to tylko kwestia czasu. Dołączyłem dopiero dwa lata temu [but] Budowa centrum danych trwa trzy lata.
„Przy całym zapotrzebowaniu na sztuczną inteligencję centra danych stają się coraz trudniejsze… Są to obciążenia bardzo energochłonne”.
Zastanawiamy się, czy mógłby istnieć chipowy gigant, który mógłby wynaleźć krzem, który mógłby wykonać więcej pracy przy mniejszym zużyciu energii.
Flierl się śmieje. „Lub użyj Granulatu, aby poprawić wydajność.”
Flierl mówi o lokalizacji kolejnego centrum danych Intela: „Prawdopodobnie nie będzie ono teraz zlokalizowane w Ameryce Północnej. Rozważam centrum danych tutaj, w Europie, a także region Azji i Pacyfiku. „
„Chcemy również nawiązać współpracę z lokalnymi dostawcami usług, którzy mogą pomóc nam w obsłudze tej chmury jako suwerennej chmury”.
Flierl opisuje plany Intel Developer Cloud jako „ulicę dwukierunkową”.
„Z jednej strony chcemy zapewnić klientom strategicznym wczesny dostęp, z drugiej strony, rozmawiając bezpośrednio z klientami końcowymi, przekazujemy tę informację bezpośrednio do nas.
„Tradycyjnie nasz model polega na tym, że sprzedajemy producentom OEM, sprzedajemy dostawcom usług telekomunikacyjnych, a następnie sprzedajemy klientowi końcowemu… Zaletą jest to, że możemy rozmawiać bezpośrednio z klientem końcowym.
„Jesteśmy jedyną firmą na świecie, która produkuje własne chipy, projektuje własne chipy, a także udostępnia je jako usługę w chmurze”.
Intel nie jest jednak firmą produkującą własne chipy AI.
„Tak, masz rację” – mówi Flierl. „Google tworzy własne chipy TensorFlow, ale nie mogę ich kupić nigdzie indziej. Jako firma możemy zaoferować kilka wyjątkowych korzyści. „
Czy Intel zrobił wystarczająco dużo, aby przekonać programistów do korzystania z jego chmury, a nie rozwiązań konkurencji? Nic dziwnego, że Flierl wierzy, że elastyczność, obejmująca wszystko, od procesorów Xeon typu bare metal po zarządzane Kubernetes, sprawia, że usługa ta jest kuszącą opcją.
„Możesz uzyskać dostęp do różnych warstw stosu, w zależności od tego, co próbujesz zrobić… a następnie te usługi są dostępne w różnych typach instancji, dzięki czemu możesz zobaczyć – przy tym obciążeniu – jak dobrze działają na procesorze w porównaniu z tym, jak cóż, działa na procesorze Gaudi w porównaniu z szybkością działania na GPU, a na podstawie wyników, które zobaczysz, zoptymalizujesz obciążenie pracą. ®