Confluent introduceert nieuwe mogelijkheden van het Apache Flink-aanbod om AI te vereenvoudigen

Confluent, Inc., pionier op het gebied van datastreaming, heeft de AI Model Inference-functie aangekondigd, die binnenkort beschikbaar zal zijn op Confluent Cloud voor Apache Flink®. Deze functionaliteit zal het voor teams mogelijk maken om machine learning eenvoudig te integreren in hun datapipelines. Het bedrijf heeft ook Confluent Platform voor Apache Flink® gelanceerd, een versie van Flink die real-time verwerking in lokale of hybride omgevingen vergemakkelijkt, ondersteund door hun Flink-experts. Daarnaast heeft Confluent Freight Clusters geïntroduceerd, een nieuw type cluster voor Confluent Cloud dat kosteneffectief beheer biedt voor gebruiksscenario’s met een hoog volume die geen kritieke tijden vereisen, zoals het verwerken van loggegevens of telemetrie.

AI Model Inference vereenvoudigt de creatie en lancering van AI- en machine learning (ML)-applicaties

Generatieve AI helpt organisaties om sneller te innoveren en meer gepersonaliseerde klantbelevingen te leveren. AI-workloads hebben recente en contextrijke gegevens nodig om te garanderen dat de onderliggende modellen nauwkeurige resultaten genereren, zodat bedrijven geïnformeerde beslissingen kunnen nemen op basis van de meest actuele informatie die beschikbaar is.

Echter, ontwikkelaars moeten vaak verschillende tools en talen gebruiken om te werken met AI-modellen en data processing pipelines, wat leidt tot complexe en gefragmenteerde workloads. Dit kan het benutten van de meest recente en relevante gegevens voor besluitvorming bemoeilijken, wat kan leiden tot fouten of inconsistenties en de nauwkeurigheid en betrouwbaarheid van AI-gebaseerde inzichten in gevaar kan brengen. Deze problemen kunnen de ontwikkelingstijd verlengen en het onderhoud en de uitbreiding van AI-applicaties bemoeilijken.

Met AI Model Inference in Confluent Cloud voor Apache Flink®, kunnen organisaties eenvoudige SQL-statements gebruiken vanuit Apache Flink om oproepen te maken naar AI-engines, inclusief OpenAI, AWS SageMaker, GCP Vertex en Microsoft Azure. Nu kunnen bedrijven data cleaning- en verwerkingstaken orkestreren op één enkel platform.

«Apache Kafka en Flink zijn de kritieke schakels om machine learning- en artificial intelligence-applicaties te voeden met de meest tijdige en nauwkeurige gegevens», zei Shaun Clowes, Chief Product Officer van Confluent. «AI Model Inference van Confluent elimineert de complexiteit die gepaard gaat met het gebruik van datastreaming voor AI-ontwikkeling, waardoor organisaties sneller kunnen innoveren en krachtige klantbelevingen kunnen bieden.»

AI Model Inference stelt organisaties in staat om:

  • AI-ontwikkeling te vereenvoudigen door bekende SQL-syntaxis te gebruiken om direct te werken met AI/ML-modellen, waardoor de noodzaak voor gespecialiseerde tools en talen afneemt.
  • Een vloeiende coördinatie te vestigen tussen de data processing- en AI-workflows om efficiëntie te verbeteren en operationele complexiteit te verminderen.
  • Precieze en AI-gestuurde beslissingen in realtime mogelijk te maken, door het gebruik van recente en contextuele datastreaming.

«Het benutten van recente en contextuele gegevens is cruciaal voor het trainen en verfijnen van AI-modellen, en voor het gebruik ervan op het moment van inferentie om de nauwkeurigheid en relevantie van de resultaten te verbeteren», zei Stewart Bond, Vice President van Data Intelligence en Integration Software bij IDC. «Organisaties moeten de efficiëntie van de AI-verwerking verbeteren door de integratie van gegevens en processing pipelines met de AI-modellen te verenigen. Flink kan nu fundamentele modellen behandelen alsof het first-class bronnen zijn, waardoor de unificatie van real-timedata processing met AI-taken mogelijk is om workflows te versnellen, efficiëntie te verbeteren en operationele complexiteit te verminderen. Deze mogelijkheden stellen organisaties in staat om precieze en realtime beslissingen te nemen aangedreven door AI op basis van de meest actuele en relevante datastreaming, terwijl ze prestaties en waarde verbeteren.»

Ondersteuning voor AI Model Inference is nu al in early access beschikbaar voor geselecteerde klanten. Klanten kunnen zich nu aanmelden voor voorkeurstoegang en meer te weten komen over dit aanbod.

Confluent Platform voor Apache Flink® maakt streamverwerking mogelijk in privé-clouds en lokale omgevingen

Veel organisaties zoeken naar hybride oplossingen om de meest gevoelige workloads te beschermen. Met Confluent Platform voor Apache Flink®, een distributie van Flink volledig compatibel met Confluent, kunnen klanten gemakkelijk streamverwerking voor workloads in de privé-cloud of lokaal benutten, met langdurige deskundige ondersteuning. Apache Flink kan worden gebruikt in combinatie met Confluent Platform met minimale wijzigingen aan bestaande Flink-werken en de Flink-architectuur.

Confluent Platform voor Apache Flink® kan organisaties helpen:

  • Risico’s te minimaliseren met eenduidige ondersteuning van Flink en Kafka en deskundige begeleiding van de grootste experts in de datastreaming-industrie.
  • Tijdige assistentie te ontvangen bij het oplossen van problemen, waardoor de impact van eventuele operationele storingen op kritieke applicaties wordt verminderd.
  • Garanderen dat streamverwerkende applicaties veilig en up-to-date zijn met buitencyclische fout- en kwetsbaarheidscorrecties.

Met Kafka en Flink beschikbaar op het complete datastreamingplatform van Confluent, kunnen organisaties zorgen voor een betere integratie en compatibiliteit tussen technologieën en volledige ondersteuning ontvangen voor streamingworkloads in alle omgevingen. In tegenstelling tot open-source Apache Flink, dat enkel de twee meest recente versies onderhoudt, biedt Confluent drie jaar ondersteuning voor elke versie van Confluent Platform voor Apache Flink® vanaf de lancering, wat zorgt voor ononderbroken operaties en gemoedsrust.

Confluent Platform voor Apache Flink® zal later dit jaar beschikbaar zijn voor Confluent-klanten.

Nieuwe schaalbare Freight-clusters bieden kosten-efficiëntie op schaal

Veel organisaties gebruiken Confluent Cloud voor het verwerken van loggegevens en telemetrie. Deze use cases bevatten grote hoeveelheden bedrijfscruciale gegevens, maar zijn vaak minder gevoelig voor latentie, aangezien ze doorgaans gebruikt worden om indexering of batchaggregatie te voeden. Om deze veelvoorkomende use cases kosteneffectiever te maken voor klanten, introduceert Confluent Freight clusters—een nieuw type serverloos cluster met kosten die tot 90% lager zijn voor high-performance use cases met ontspannen latentie-eisen. Dankzij Elastische CKU’s (Confluent Kubernetes Units) schalen Freight-clusters probleemloos op of af op basis van de vraag, zonder de noodzaak van handmatige planning van de grootte of capaciteit, waardoor organisaties operationele overhead kunnen minimaliseren en kosten kunnen optimaliseren door enkel te betalen voor de bronnen die ze gebruiken wanneer ze die nodig hebben.

De Freight-clusters zijn nu al beschikbaar in early access in sommige AWS-regio’s. Klanten kunnen zich inschrijven voor early access en meer te weten komen over dit aanbod.