Algolia dojrzała na OpenAI API, ale wkrótce firma zapragnęła rozszerzyć swoją działalność na Europę, co wiązało się z koniecznością zapewnienia zgodności z RODO. Rozpoczęła współpracę z Microsoftem, który uruchamiał usługę Azure OpenAI. W następnym studium przypadku przyjrzymy się tej usłudze.
Partnerstwo, jakie miało być
Microsoft i OpenAI ogłosiły partnerstwo w 2019 roku, którego celem jest zapewnienie klientom Microsoft Azure dostępu do możliwości GPT-3. Partnerstwo opiera się na wspólnej wizji polegającej na zapewnieniu bezpiecznego wdrażania sztucznej inteligencji i AGI. Microsoft zainwestował miliard dolarów w OpenAI, finansując uruchomienie API, które działa na platformie Azure. Partnerstwo kończy się dostarczeniem interfejsu API, aby zapewnić większej liczbie osób dostęp do dużych modeli językowych. Dominic Divakaruni, główny menedżer produktów grupy i szef usługi Azure OpenAI Service, mówi, że zawsze myślał o tej współpracy jako o partnerstwie, które wydaje się być takie, jakie miało być, zauważając, że dyrektor generalny Microsoft Satya Nadella i dyrektor generalny OpenAI Sam Altman często mówili o zapewnieniu aby korzyści płynące ze sztucznej inteligencji były dostępne i szeroko rozpowszechnione. Obydwu firmom zależy także na bezpieczeństwie innowacji AI. Celem, jak mówi Divakaruni, „było wzajemne wykorzystanie mocnych stron”, w szczególności doświadczeń użytkowników OpenAI i modelowania postępu oraz istniejących relacji Microsoftu z firmami, dużymi sprzedawcami i infrastrukturą chmurową. Biorąc pod uwagę bazę klientów, zespół Microsoft Azure rozumie podstawowe wymagania klientów korzystających z chmury korporacyjnej w zakresie zgodności, certyfikatów, bezpieczeństwa sieci i powiązanych kwestii. Dla Microsoftu zainteresowanie GPT-3 zaczyna się w dużej mierze od tego, że otwiera on nowe możliwości i jest dostępny przed jakimkolwiek innym modelem z kategorii LLM. Kolejnym kluczowym czynnikiem inwestycji Microsoftu jest to, że zyskał on możliwość korzystania wyłącznie z zasobów własności intelektualnej OpenAI. Chociaż dostępne są alternatywy GPT-3, Divakaruni twierdzi, że centralizacja API OpenAI jest wyjątkowa. Zauważa, że modele usług takich jak analiza tekstu czy tłumaczenie wymagają „sporo pracy” ze strony dostawcy chmury, aby dostosować je do usługi API. OpenAI oferuje jednak „ten sam interfejs API używany do różnych zadań”, a nie „niestandardowe interfejsy API tworzone do konkretnych zadań”.