Met het verstrijken van de tijd omvat het concept van het internet der dingen steeds meer dingen. Deze dingen hebben niet alleen interne sensoren en processors ingebouwd, maar zijn ook direct verbonden met het netwerk en verzenden hun gegevens online. Huisautomatisering mag dan de "belangrijkste" toepassing van dit concept zijn, als de koelkast bijvoorbeeld zonder melk komt te zitten, bestelt de koelkast automatisch melk bij de kruidenier. Maar de reikwijdte van IoT-toepassingen wordt eigenlijk steeds groter. We zullen veel dingen hebben die met elkaar communiceren maar onafhankelijk van elkaar zijn, kantoren zullen automatisch kantoorartikelen bestellen wanneer dat nodig is zonder onze tussenkomst, en zelfs sensoren op onze kleding en lichamen zullen onze gezondheidsgegevens in realtime naar onze artsen sturen. Dit soort M2M (machine-to-machine) communicatie is de sleutel.
Om alle potentiële voordelen van het internet van de dingen te realiseren, moet cloud computing het fundament van het internet van de dingen zijn. Het idee achter het internet is dat de meeste verzamelde gegevens online moeten worden verzonden, zodat toepassingen deze gegevens effectief kunnen aggregeren, analyseren en gebruiken. Laten we nu teruggaan naar het voorbeeld van de koelkast. In dit voorbeeld bestelt de koelkast niet zelf melk bij de supermarkt, maar stuurt de koelkast al zijn gegevens, inclusief de huidige voedselvoorraad en het verbruik van de gebruiker, naar de app, die de gegevens vervolgens leest en analyseert. De aankoopbeslissing wordt dan genomen op basis van factoren zoals het huidige voedselbudget van de gebruiker en hoe lang het duurt voordat de melk wordt geleverd.
Als al onze dagelijkse producten hiermee zouden zijn uitgerust, zou de hoeveelheid gegenereerde gegevens enorm zijn. Daarom moet IoT nadenken over hoe de gegenereerde gegevens kunnen worden opgeslagen en geanalyseerd. Dit is niet alleen een kwestie van de hoeveelheid gegevens, maar ook van de snelheid waarmee deze gegevens worden gegenereerd. Sensoren genereren steeds meer gegevens, sneller dan de meeste commerciële toepassingen kunnen verwerken.
Cloudgebaseerde oplossingen zijn van fundamenteel belang voor het omgaan met het volume en de snelheid waarmee gegevens worden gegenereerd. De cloud kan automatisch en dynamisch voorzien in opslagbronnen op basis van onze behoeften zonder handmatige tussenkomst. De cloud geeft ons ook toegang tot virtuele opslag via cloud databaseclusters of gevirtualiseerde fysieke opslag die de capaciteit kan aanpassen zonder downtime, en de mogelijkheid om toegang te krijgen tot grote pools van opslagbronnen, wat lokaal niet mogelijk is.
De tweede vraag over deze gegevens is wat we ermee moeten doen. Er zijn twee problemen met dit probleem. De eerste moeilijkheid is hoe je alle datapunten, verkregen van elk object, in realtime kunt verwerken. De tweede moeilijkheid is om bruikbare informatie te extraheren uit alle beschikbare verzamelde datapunten en om de informatie verkregen van verschillende objecten te correleren om echte waarde toe te voegen aan de opgeslagen gegevens.
Hoewel real-time verwerking eenvoudig lijkt - gegevens binnenhalen, analyseren en vervolgens gebruiken - is dat niet het geval in real-time. Laten we teruggaan naar het voorbeeld van de koelkast. Stel je voor dat elke keer dat iemand de deur van de koelkast opent, de koelkast een gegevenspakket verstuurt. Deze datapakketjes bevatten wat er verplaatst is en wat er in gezet is. Laten we schatten dat er ongeveer 2 miljard koelkasten in de wereld zijn en dat de deur van de koelkast 4 keer per dag open en dicht gaat. Er worden dus 8 miljard gegevenspakketjes per dag gegenereerd, wat neerkomt op gemiddeld 100.000 gegevenspakketjes per seconde. Deze hoeveelheid is zeer verbazingwekkend. Erger nog, deze datapunten kunnen geconcentreerd zijn op karakteristieke momenten van de dag (voornamelijk 's ochtends en 's avonds). Als we de verwerkingscapaciteit voorbereiden op basis van maximale belasting, zal er veel infrastructuur worden verspild.
Zodra real-time verwerking is uitgevoerd, komen we de tweede moeilijkheid tegen, namelijk hoe we nuttige informatie uit deze opgeslagen gegevens kunnen halen en ze naar een hoger niveau kunnen tillen en niet langer persoonlijke zaken zijn. Het zou voor jou persoonlijk geweldig zijn als je koelkast automatisch je bestelling bij de supermarkt voor je zou kunnen doen, maar wat als de fabrikant zou weten dat koelkasten uit bepaalde regio's de neiging hebben om oververhit te raken, of dat koelkasten die bepaalde artikelen bewaren hun nuttige levensduur te snel hebben versleten? Dan is dit van groter belang voor fabrikanten. Om dit soort informatie uit opgeslagen gegevens te halen, moeten we gebruik maken van bestaande big data-oplossingen (en een aantal die in het verschiet liggen).
Cloud computing is bij uitstek geschikt om deze problemen aan te pakken. In het eerste pijnpunt is dynamische toewijzing (en terugwinning) van verwerkingsbronnen mogelijk, waardoor toepassingen die in realtime koelkastgegevens moeten analyseren, kunnen omgaan met deze enorme datavolumes en de infrastructuurkosten kunnen optimaliseren. In het tweede probleem kan cloud computing samenwerken met big data-oplossingen.
Samenvattend: het internet van de dingen kan de algemene architectuur van cloud computing veranderen, maar tegelijkertijd is cloud computing ook cruciaal voor het bereiken van deze verandering. Als het gaat om gevirtualiseerde computerresources, hoewel applicaties deze resources dynamisch kunnen toewijzen zonder handmatige tussenkomst, zal cloud computing geen ontwikkeling kennen als dit het geval is. Want het internet der dingen is de enige drijvende kracht achter hun ontwikkeling.