Die Zen­tra­le für dy­na­mi­sche Daten

Spei­che­rung und Ver­tei­lung von Daten mit DEr soft­wa­re IfTA Da­taHub

In der IfTA Da­taHub Soft­wa­re lau­fen alle Daten auf einem Win­dows ba­sier­tem PC zu­sam­men, um sie zu ar­chi­vie­ren, zu spei­chern und on­li­ne im Netz­werk für die Vi­sua­li­sie­rung zu ver­tei­len. Als Da­ten­quel­le sind hier der IfTA Si­gnalMi­ner mit den dy­na­mi­schen Daten zu nen­nen, aber auch wei­te­re Daten per OPC, Da­taSocket oder an­de­ren pro­prie­tä­ren Schnitt­stel­len, wel­che den Be­trieb­spunkt der Ma­schi­ne oder Um­welt­be­din­gun­gen fest­hal­ten. Das Zu­sam­men­füh­ren die­ser Daten er­laubt es, die dy­na­mi­schen Daten im Kon­text zu be­trach­ten. Dar­über hin­aus wer­den kom­pak­te Über­sichts­da­tei­en er­zeugt, indem Daten zeit­lich und lo­gisch zu­sam­men­ge­fasst wer­den. So ist es mög­lich eine täg­li­che Über­sicht über das Ma­schi­nen­ver­hal­ten zu er­mög­li­chen, die nur we­ni­ge MB an Daten be­nö­tigt und auch leicht re­mo­te ab­ruf­bar ist. Die Spei­che­rung, Trig­ge­rung, Fil­te­rung und Zu­sam­men­fas­sung kann frei pa­ra­me­triert wer­den.

 

Lang­zeit­da­ten­auf­zeich­nung

Läuft der IfTA Da­taHub auf un­se­ren Da­ten­ser­ver-Lö­sun­gen, wie dem IfTA SlotPC und dem IfTA Pa­nelPC, er­mög­­licht das eine in­­tel­­li­­gen­te Lang­­zeit­da­ten­er­fas­­sung über Mo­na­te und Jahre hin­weg ohne zu­sätz­li­che ex­ter­ne Gerä­te ver­wen­den zu müs­sen.

Lang­­zeit­ana­­ly­­se dy­na­­mi­­scher Mess- und Be­triebs­da­ten

Die Nadel im Heu­hau­fen fin­den

Die Da­taHub Soft­wa­re sam­melt Daten ver­schie­dens­ter Quel­len und er­mög­licht damit deren kom­bi­nier­te Ana­ly­se. So kön­nen unter an­de­rem dy­na­mi­sche Mess­da­ten von mehr als 100 GB/Tag aus IfTA Mess­sys­te­men zu­sam­men mit Be­triebs­da­ten 24/7 ge­spei­chert und ana­ly­siert wer­den. Die Suche nach re­le­van­ten Er­eig­nis­sen in die­sen großen Da­ten­men­gen ent­spricht der buch­stäb­li­chen Suche nach der „Na­del im Heu­hau­fen“.

Bei die­ser Suche un­ter­stützt der Da­taHub den An­wen­der durch die Er­stel­lung klei­ner, leicht hand­hab­ba­rer Über­sichts­da­tei­en, die einen schnel­len Über­blick über alle Daten und damit das Auf­fin­den von Anoma­li­en er­mög­li­chen. Zu­sätz­lich er­laubt die be­reit­ge­stell­te On­li­ne-An­bin­dung die Echt­zeit­be­gut­ach­tung aller Da­ten­strö­me und das Da­ten­stre­a­ming in die Cloud.

Da­ten­ag­gre­gie­rung zur ef­fi­zi­en­ten Ana­ly­se großer Da­ten­sät­ze

Dy­na­mi­sche Schwin­gungs­mes­sun­gen ge­ne­rie­ren große Men­gen an Daten

Die di­gi­ta­le Auf­zeich­nung dy­na­mi­scher Schwin­gungs­da­ten er­zeugt sehr schnell große Men­gen an Daten. Die Er­fas­sung von Schwin­gun­gen bis 5 kHz er­for­dert bei­spiel­haft eine Da­ten­ra­te von min­des­tens 10 000 Samp­les pro Se­kun­de (S/s). Nimmt man an, jedes ein­zel­ne Sam­ple er­for­de­re 4 Byte an Spei­cher, so führt das zu einer Da­ten­ra­te von 40 kByte/s, bzw. um­ge­rech­net 144 MByte in der Stun­de oder knapp 3,5 GB am Tag. Da im All­ge­mei­nen mehr als ein ein­zel­ner Sen­sor ein­ge­setzt wird, ge­ne­riert die Über­wa­chung einer kom­plet­ten Ma­schi­ne ein Viel­fa­ches davon.

Wie funk­tio­niert die Da­ten­ag­gre­gie­rung?

Diese Da­ten­flut bringt eine Viel­zahl an Her­aus­for­de­run­gen mit sich. Viele davon las­sen sich mit der Ag­gre­gie­rung von Daten be­geg­nen. Hier­bei wird in Echt­zeit aus Roh­da­ten ein „Da­ten-Kon­den­sat“ mit er­heb­lich re­du­zier­tem Speicher­be­darf er­zeugt, wel­ches den­noch we­sent­li­che In­for­ma­tio­nen bei­be­hält. Die­ses Kon­den­sat er­mög­licht schnel­le Ein­bli­cke in große Da­ten­sät­ze und dient als Weg­wei­ser und In­di­ka­tor bei der Ana­ly­se.

Der IfTA Da­taHub un­ter­stützt eine Ag­gre­gie­rung über die Zeit. Diese ist in Ab­bil­dung 1 il­lus­triert. Ein hoch­auf­ge­lös­tes Si­gnal wird hier über auf­ein­an­der fol­gen­de Zeit­fens­ter je­weils zu drei Da­ten­punk­ten ag­gre­giert: Der erste Punkt ent­spricht dem mi­ni­ma­len Wert des Si­gnals in­ner­halb des Zeit­fens­ters, der zwei­te dem ma­xi­ma­len und der drit­te dem durch­schnitt­li­chen Wert. Auf diese Weise wer­den drei neue Si­gna­le er­zeugt, wel­che das Aus­gangs­si­gnal cha­rak­te­ri­sie­ren und deren zeit­li­che Auf­lö­sung – und damit Speicher­be­darf - von der ge­wähl­ten Fens­ter­brei­te ab­hängt.

 

Vor­tei­le der zeit­li­chen Da­tenAg­gre­gie­rung

Die zeit­li­che Ag­gre­gie­rung von Daten er­laubt es, große Zeit­be­rei­che ef­fi­zi­ent zu ana­ly­sie­ren. Ab­bil­dung 2 ver­an­schau­licht die­sen Vor­teil. In der lin­ken Bild­hälf­te sind Spek­tro­gram­me von 100 MByte an Sens­or­da­ten für zwei Ag­gre­gie­rungs­stu­fen samt Roh­da­ten dar­ge­stellt. Wäh­rend ohne Ag­gre­gie­rung le­dig­lich ein sehr kur­z­er Zeit­ab­schnitt ab­ge­deckt wird (unten), lässt sich in der höchs­ten Ag­gre­gie­rungs­stu­fe (60 s) ein sehr wei­ter Be­reich über­bli­cken. Wird hier eine Auf­fäl­lig­keit ent­deckt, kann durch Laden der nächst­fei­ne­ren Ag­gre­gie­rungs­stu­fe (5 s oder Roh­da­ten) suk­zes­si­ve in die Daten hin­ein­ge­zoomt wer­den. In der rech­ten Bild­hälf­te ist dies ana­log für den Zeit­be­reich il­lus­triert. Die zu ver­ar­bei­ten­den Daten wer­den auf diese Weise mi­ni­miert, was spei­cher- und re­chenef­fi­zi­ent ist und damit für große Da­ten­sät­ze ef­fek­ti­ves Ar­bei­ten über­haupt erst er­mög­licht.

     

    Nut­zen auf einen Blick

    • Schnel­le Vi­sua­li­sie­rung und Ana­ly­se großer Zeit­be­rei­che
    • Zoom in Roh­da­ten ziel­genau mög­lich
    • Ag­gre­gier­te Daten ste­hen so­fort zur Ver­fü­gung, da die Da­ten­ag­gre­gie­rung kon­ti­nu­ier­lich wäh­rend der Da­ten­auf­zeich­nung er­folgt

    Die Funk­tio­nen der IfTA Soft­wa­re Da­taHub

    Der Grund­auf­bau der IfTA Da­taHub Soft­wa­re

    Die IfTA Da­taHub Soft­wa­re be­steht aus zwei Kom­po­nen­ten: einem Dienst, wel­cher die ei­gent­li­che Ar­beit im Hin­ter­grund er­le­digt und einem zwei­ten Dienst, der eine web­ba­sier­te Schnitt­stel­le für An­wen­der bie­tet. Durch diese Ent­kopp­lung kann höchs­te Zu­ver­läs­sig­keit und Ro­bust­heit ge­währ­leis­tet wer­den.

    • Der Hin­ter­grund­dienst sam­melt die Daten aller Da­ten­quel­len und führt diese zu­sam­men, fil­tert, ag­gre­giert und ver­teilt sie in Da­tei­en für die live Vi­sua­li­sie­rung und Ana­ly­se in Tren­dVie­wer
    • Die web­ba­sier­te Schnitt­stel­le er­laubt An­wen­dern die Kon­fi­gu­ra­ti­on, Sta­tu­s­ab­fra­ge und In­ter­ak­ti­on per Brow­ser - auf dem Sys­tem, aber auch re­mo­te vom ei­ge­nen Lap­top
    • Über eine Be­nut­zer­ver­wal­tung kann fest­ge­legt wer­den, wer wel­che Ak­tio­nen durch­füh­ren kann

    Sam­meln und Zu­sam­men­füh­ren von Mess­da­ten

    In den Ein­stel­lun­gen der Da­ten­quel­len wird kon­fi­gu­riert, von woher der Da­taHub seine Daten be­zieht. Die IfTA Si­gnalMi­ner Firm­wa­re des IfTA DSP ist die Haupt­da­ten­quel­le für Mess­da­ten - hier wer­den alle dy­na­mi­schen Daten er­fasst.

    Zu­sätz­lich zu den dy­na­mi­schen Daten be­nö­tigt man in der Regel noch wei­te­re Mess­wer­te (Be­triebs­da­ten, Um­ge­bungs­da­ten, etc.), die über fol­gen­de Schnitt­stel­len er­fasst wer­den kön­nen:

    Auf Kun­den­wunsch wer­den auch pro­prie­tä­re Schnitt­stel­len an­ge­bun­den.

     

    Mess­da­ten zeit­lich zu­sam­men­fas­sen, fil­tern und trig­gern

    In den "Ag­gre­ga­ti­on Set­tings" wer­den die kon­fi­gu­rier­ten Da­ten­quel­len zu neuen Da­ten­strö­men zu­sam­men­ge­fasst.

    Ein­­stell­­ba­­re Funk­tio­­nen:

    • Aus­wahl der zu­sam­men­zu­fas­sen­den Quell­da­ten­strö­me
    • Fil­te­rung der Quell­da­ten­strö­me - auf die we­sent­li­chen be­schrän­ken Si­gna­le und damit die Da­ten­men­ge zu re­du­zie­ren
    • Zeit­li­che Zu­sam­men­fas­sung der Daten, um die Da­ten­ra­te und damit die Da­ten­men­ge zu re­du­zie­ren
    • Get­rig­ger­te Er­fas­sung von Daten mit einer Pre- und Post-Trig­ger Zeit­span­ne

    Spei­che­rung von Mess­da­ten für die Off­li­ne Ana­ly­se

    In den "ADF Wri­ter Set­ting" wird die Spei­che­rung der Mess­wer­te in Da­tei­en kon­fi­gu­riert, damit diese zur spä­te­ren Off­li­ne Ana­ly­se zur Ver­fü­gung ste­hen, z.B. in der IfTA Tren­dVie­wer Ana­ly­se­soft­wa­re. Um ein Über­lau­fen des Spei­cher­me­di­ums zu ver­hin­dern, wer­den beim Er­rei­chen des kon­fi­gu­rier­ten Spei­cher­kon­tin­gents die äl­tes­ten Da­tei­en ge­löscht, um Platz für die neuen ak­tu­el­len Daten zu schaf­fen.

    Ein­stell­ba­re Funk­tio­nen:

    • Fest­le­gung des Spei­cher­or­tes und des zu nut­zen­den Ring­puf­fer­spei­cher­plat­zes
    • Fest­le­gung des Da­tein­amens­mus­ters
    • Spei­che­rung der Da­ten­strö­me nach Zeit­schei­ben
    • Fest­le­gung der zu spei­chern­den Da­ten­strö­me

    Mess­da­ten zur On­­li­­ne Vi­­sua­­li­­sie­rung be­reit­s­tel­len

    In den "Set­ting for the On­li­ne Ser­ver" wird das Stre­a­ming der Mess­da­ten zu on­li­ne Cli­ents wie Tren­dVie­wer kon­fi­gu­riert.

    Zur kon­ti­nu­ier­li­chen Über­wa­chung durch An­wen­der oder bei der Durch­füh­rung von spe­zi­fi­schen Mes­sun­gen kann der An­wen­der die Mess­da­ten hier­mit live vi­sua­li­sie­ren und ana­ly­sie­ren, z.B. mit­tels Tren­dVie­wer.

    Si­gna­le durch Be­rech­nun­gen de­fi­nie­ren

    In den "Cal­cu­la­ti­ons Set­tings" kön­nen neben den Si­gna­len aus den Da­ten­quel­len zu­sätz­li­che Si­gna­le per Be­rech­nungs­funk­tio­nen er­stellt wer­den.

    Die Haupt­an­wen­dun­gen hier­für sind:

    • Be­nut­zer­de­fi­nier­te Trig­ger­be­din­gun­gen
    • Be­nut­zer­de­fi­nier­te Speicher­be­din­gun­gen

    Be­nut­zerein­ga­ben als Si­gnal be­reit­stel­len

    In den "User Input Set­ting" kön­nen wei­te­re Si­gna­le als Da­ten­quel­le de­fi­niert wer­den die eine di­rek­te Ein­ga­be des An­wen­ders sind. Nach der De­fi­ni­ti­on eines Si­gnals kann der An­wen­der hier di­rekt Werte ein­ge­ben die zu­sam­men mit den Mess­da­ten ge­spei­chert wer­den oder die Steue­rung an­de­rer Ak­tio­nen wie Spei­che­rung und Trig­ge­rung über­neh­men.

    Die Haup­t­an­wen­­dun­­gen hier­­für sind:

    • Ma­nu­el­les Steu­ern der Spei­che­rung
    • Ma­nu­el­les Aus­lö­sen eines Trig­gers
    • Ma­nu­el­les Er­fas­sen an­de­rer In­for­ma­tio­nen die nicht per Sen­sor oder an­de­rer Da­ten­quel­le zur Ver­fü­gung ste­hen, z.B. Mess­punkt­num­mer, Um­ge­bungs­be­din­gun­gen, Zu­stän­de

    1. Platz für den IfTA Da­taHub

    Ver­lei­hung des mes­stec + sen­sor mas­ters award 2020

    Die IfTA Da­taHub Soft­wa­re wurde am 22.09.2020 mit dem 1. Platz des mes­stec + sen­sor mas­ters award 2020 aus­ge­zeich­net.

    Dr. Jakob Her­mann, Ge­schäfts­füh­rer der IfTA, freut sich über die Aus­zeich­nung be­son­ders: „Die Da­taHub-Soft­wa­re ist das Herz­stück un­se­rer Schwin­gungs­mess­sys­te­me. Sie sam­melt dy­na­mi­sche Mess­da­ten und Be­triebs­da­ten aus un­ter­schied­lichs­ter Quel­len und sorgt für eine smar­te 24/7 Lang­zeit-Spei­che­rung für spä­te­re Ana­ly­sen. 2016 wurde un­se­re Ana­ly­se- und Vi­sua­li­sie­rungs­soft­wa­re Tren­dVie­wer eben­falls mit dem ers­ten Platz aus­ge­zeich­net. Zu­sam­men bil­den sie ein star­kes und von den Le­sern der MD-Au­to­ma­ti­on „prä­mi­er­tes“ Soft­wa­re­pa­ket für die ef­fi­zi­en­te Ur­sa­chen­ana­ly­se von Schwin­gun­gen an Ma­schi­nen und An­la­gen.“

    Der nächs­te Schritt: Die Da­ten­ana­ly­se mit IfTA Tren­dVie­wer

    Wenn nun die Daten über die Da­taHub Soft­wa­re ge­sam­melt und ag­gre­giert wur­den, folgt die Ana­ly­se und Aus­wer­tung der Daten mit un­se­rer IfTA Tren­dVie­wer Soft­wa­re. Hier­durch kön­nen z. B. Feh­ler ge­fun­den, Daten ver­gli­chen und Ent­schei­dun­gen zur Op­ti­mie­rung ge­trof­fen wer­den.

     

    Je bes­ser Sie Ihre Ma­schi­nen ken­nen, desto mehr Op­ti­mie­run­gen sind mög­lich.

    Pro­duk­te mit in­te­grier­ter Da­taHub Soft­wa­re

    Ar­gusOMDS

    Das be­währ­te Mo­­ni­to­ring & Schutz­­sys­tem für den sta­tio­nären Lang­­zei­tein­­satz.

    Dy­naMas­ter

    Dia­­gno­­se­tool für high­s­peed Ana­­ly­­se & in­­tel­­li­­gen­te Vi­­sua­­li­­sie­rung

    AIC - Ak­ti­ve Dämp­fung

    Die Dämp­­fung für Ihre Ver­­bren­­nungs­­schwin­­gung.