In questo articolo vedremo come è possibile utilizzare Apache Kafka in un’architettura a microservizi per consentire l’invio e la ricezione di grandi quantità di dati in maniera asincrona e scalabile.
In questo terzo articolo della serie, concludiamo la nostra introduzione ad Apache Flink con il completamento dell’applicazione che avevamo cominciato a scrivere nel numero scorso e che consente di elaborare in stream processing un flusso di tweets.
Nella prima parte di questa serie di articoli su Flink ci siamo dedicati alla descrizione dello Stream Processing in generale e di Apache Flink in particolare, in questa seconda parte ci occuperemo di come in pratica scrivere una applicazione Apache Flink.
Apache Flink è al momento una delle piattaforme di elaborazione dati più potenti e promettenti: si tratta di un framework di stream processing capace di analizzare ed elaborare imponenti volumi di dati in tempo quasi reale. In questo e nel prossimo articolo ne presentiamo concetti di base e caratteristiche.