www.wikidata.de-de.nina.az
Mit Datenstromen englisch data streams bezeichnet man in der Informatik einen kontinuierlichen Datenfluss von Datensatzen dessen Ende meist nicht im Voraus abzusehen ist die Datensatze werden fortlaufend verarbeitet sobald jeweils ein neuer Datensatz eingetroffen ist Die einzelnen Datensatze sind dabei von beliebigem aber festem Typ Die Menge der Datensatze pro Zeitspanne Datenrate kann variieren und evtl so gross werden dass die begrenzten Ressourcen zur Weiterverarbeitung nicht ausreichen und der Empfanger entsprechend reagieren muss z B verwerfen von Datensatzen Im Gegensatz zu anderen Datenquellen konnen Datenstrome nur Satz um Satz fortlaufend verarbeitet werden insbesondere ist im Gegensatz zu Datenstrukturen mit wahlfreiem Zugriff wie z B Arrays meist nur ein sequentieller Zugriff auf die einzelnen Datensatze moglich Datenstrome werden haufig zur Interprozesskommunikation verwendet Kommunikation zwischen Prozessen auf einem Rechner sowie zur Ubertragung von Daten uber Netzwerke insbesondere fur Streaming Media Sie sind im Rahmen des Programmierparadigmas Pipes und Filter vielseitig einsetzbar in Unix Shells ist dies ein gangiges Arbeitsmittel Beispiele fur Datenstrome sind Wetterdaten sowie Audio und Videostrome Streaming Media Die kontinuierliche Ubertragung von Daten uber ein Netzwerk wird auch als Streaming bezeichnet Abweichend von der Bedeutung im Zusammenhang mit dem Streaming wird der Ausdruck Datenstrom im Sprachgebrauch auch allgemeiner als elektronisch kodierte Daten im Stadium der Ubermittlung 1 verwendet hierbei ist der Aspekt der fortlaufenden Verarbeitung unwichtig dafur wird betont dass die Ubermittlung noch nicht abgeschlossen ist Beispiele dafur sind Up Downloads beim elektronischen Datenaustausch gesendete Daten Datenbestande zum Import oder Export bei SAP Inhaltsverzeichnis 1 Datenstrome vs statische Daten 2 Geschichte 3 Verarbeitung 4 Siehe auch 5 Literatur 6 EinzelnachweiseDatenstrome vs statische Daten BearbeitenNicht stromende das heisst statische Daten liegen in der Regel strukturiert abgespeichert vor oft als Tupel von Werten in Relationen in einer Datenbank Sie sind begrenzt und nicht zeitlich geordnet Die Daten in Datenstromen besitzen dagegen eine geordnete zeitliche Reihenfolge und konnen praktisch unbegrenzt auftreten Wahrend Daten in Relationen auch gezielt aktualisiert und geloscht werden konnen ist in Datenstromen nur das Einfugen von neuen Daten moglich da nicht mit wahlfreiem Zugriff auf einzelne Elemente zugegriffen werden kann Es konnen allerdings mittels spezieller Datenstromalgorithmen einzelne Tupel eines Datenstroms basierend auf ihren Eigenschaften ausgewahlt und ggf zu einem neuen Datenstrom umgewandelt werden Das umkehrbare Umformen strukturierter Daten in eine datenstromartige Aneinanderreihung bezeichnet man auch als Serialisierung Geschichte BearbeitenDas Konzept von Datenstromen in der Datenverarbeitung lasst sich unter anderem auf die von Douglas McIlroy vorgeschlagenen Pipes zur Verknupfung von Makros zuruckfuhren die 1964 als communication files im Dartmouth Time Sharing System implementiert waren und 1972 in das Betriebssystem Unix integriert wurden Dabei handelt es sich um eine Datenverbindung zwischen zwei Prozessen nach dem FIFO Prinzip Inzwischen findet sich das Prinzip von Streams in den meisten modernen Programmiersprachen Verarbeitung Bearbeiten Verarbeitung von Datenstromen in einem DSMSDie meisten Datenstrome werden mittels speziell auf eine Anwendung zugeschnittener Programme verarbeitet Beispielsweise konnen Audio Videostrome mit speziellen Wiedergabeprogrammen abgespielt werden Zur allgemeinen Verwaltung beliebiger Datenstrome werden seit Anfang des 21 Jahrhunderts in der Informatik sogenannte Data Stream Management Systeme DSMS entwickelt Diese Systeme die noch ein relativ neues Forschungsgebiet darstellen sind vergleichbar mit herkommlichen Datenbankverwaltungssystemen DBMS fur statische Daten Ein Beispiel eines solchen DSMS ist der Stanford Stream Data Manager Als Anfragesprache wurde in Erweiterung zur SQL im Rahmen dieses Projekts die Continuous Query Language CQL entwickelt Typische Probleme bei der Verarbeitung von Datenstromen sind grosse Datenmengen in kurzer Zeit und die begrenzten Ressourcen die zu ihrer Verarbeitung zur Verfugung stehen da die eingehenden Daten nicht alle zwischengespeichert werden konnen und immer nur ein Ausschnitt der Daten bekannt ist Damit sind auch nur bestimmte Algorithmen moglich Auch die zur Auswertung zur Verfugung stehende Zeit ist oft beschrankt da zeitkritische Anwendungen schnelle Ergebnisse erwarten Bei Systemen die innerhalb einer garantierten Zeitspanne ein Ergebnis liefern spricht man auch von Echtzeitsystemen Da die eingehenden Datenstrome praktisch unbegrenzt sind sind die daraus berechneten Ergebnisse einer Verarbeitung von Datenstromen oft selbst wiederum Datenstrome Deshalb wird zwischen eingehenden Datenstromen ingoing stream instream oder downstream und ausgehenden Datenstromen outgoing stream upstream unterschieden Siehe auch BearbeitenAlert Dienst Datenstromalgorithmus Datenstromorientierte Programmierung Datenfluss Streaming Protokoll Simple API for XML SAX Streaming API for XML StAX Streaming Transformations for XML STX Literatur BearbeitenMohamed Medhat Gaber Mining Data Streams Bibliography Brian Babcock Shivnath Babu Mayur Data Rajeev Motwani Jennifer Widom Models and Issues in Data Stream Systems In Proceedings of 21st ACM Symposium on Principles of Database Systems PODS 2002 Michael Cammert Christoph Heinz Jurgen Kramer Bernhard Seeger Anfrageverarbeitung auf Datenstromen Datenbank Spektrum 11 5 13 2004 Einzelnachweise Bearbeiten Federal Standard 1037C data stream Abgerufen von https de wikipedia org w index php title Datenstrom amp oldid 230126865