Managed hosting door True
Onderstaande bijdrage is van een externe partij. De redactie is niet verantwoordelijk voor de geboden informatie.

Cloudflare werkt met Databricks, Hugging Face, Meta en Microsoft aan AI

 

Cloudflare heeft deze week bekendgemaakt dat ze het serverloze ontwikkelaarsplatform gaan uitbreiden met functionaliteit om het ontwikkelen en toepassen van zakelijke AI-applicaties verder te vereenvoudigen. Daarvoor gaat deze wereldwijde aanbieder van cloudconnectiviteit nauwer samenwerken met Databricks, Hugging Face, Meta en Microsoft

Databricks en Cloudflare breiden hun samenwerking uit om MLflow-mogelijkheden naar ontwikkelaars te brengen die bouwen op Cloudflare's serverloze ontwikkelaarsplatform. Cloudflare sluit zich aan bij het open source MLflow-project als actieve deelnemer om de kloof te overbruggen tussen het trainen van modellen en het eenvoudig toepassen ervan op Cloudflare's wereldwijde netwerk. Daarop kunnen AI-modellen dicht bij eindgebruikers draaien voor een ‘low-latency’ ervaring.

Cloudflare gaat met Hugging Face het gebruik van de beste open AI-modellen toegankelijker en betaalbaarder te maken voor ontwikkelaars. Cloudflare wordt de eerste serverloze GPU voorkeurspartner voor het gebruik van Hugging Face-modellen. Daardoor kunnen ontwikkelaars snel en eenvoudig wereldwijd AI inzetten, zonder dat zij zich zorgen hoeven te maken over het beheer van de infrastructuur en zonder te betalen voor ongebruikte rekencapaciteit. Hugging Face gaat ook geoptimaliseerde generatieve AI-modellen aanbieden voor Cloudflare's nieuwe AI-inferentieplatform.

Cloudflare gaat met Meta samenwerken om het Llama 2 open source large language model (LLM) wereldwijd beschikbaar te maken voor ontwikkelaars die AI-toepassingen willen bouwen op het serverloze Cloudflare Workers platform. Daarmee kunnen de beide partners lokale inferenties voor iedereen aanbieden, waarbij de privacy voorop staat.

Tenslotte gaan Cloudflare en Microsoft het voor bedrijven makkelijker maken om AI-toepassingen te draaien op de locatie die het beste past bij hun behoeften. Door gebruik te maken van ONNX Runtime kunnen Cloudflare en Microsoft ervoor zorgen dat AI-modellen kunnen worden uitgevoerd waar verwerking het meest zinvol is, van de hyperscale cloud tot het hypergedistribueerde Edge Network en op de apparaten van gebruikers zelf.

Dit artikel is afkomstig van Channelweb.nl (https://www.channelweb.nl/artikel/7560723). © Jaarbeurs IT Media.

?

Nieuwsbrief

Wil je dagelijks op de hoogte gehouden worden van het laatste resellernieuws, trends en ontwikkelingen? Abonneer je dan op onze gratis nieuwsbrief.

Vul een geldig e-mailadres in

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×


Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.