Ange din e-postadress
Produkterna
Hitta bland alla våra produkter
Andra sätt att hitta på
Andra sätt att hitta på
Andra sätt att hitta på
Andra sätt att hitta på
Andra sätt att hitta på
Andra sätt att hitta på
Andra sätt att hitta på
När vi pratar om streaming filformat finns en uppsjö av termer som inte alltid är så lätta att förstå. Vi börjar från början: dels har du själva bildströmmen som lite grovt kan skapas på 2 sätt: antingen registrera du bild för bild, som en gammal dags film, eller så skickar du förändringen av filmbilden.
Naturligtvis är källan en kamera eller grafikkortsgenererad ”monitorbild” uppbyggd som vanligt av bilddelar, pixlar, som ger en särskild upplösning tex HD, vilket ju är 1920 pixlar brett och 1080 pixlar högt. Eftersom det är en film är det ju ett antal bilder per sekund vilket anges i hz (eller bps) oftast 30 eller 60 när det är streaming.
Nu måste vi veta vad vårt media är. Vilken typ av nätverk och hur mycket plats finns det för oss. Om vi skulle skicka en ström av bilden med full upplösning skulle detta ta jättemycket plats, vilket kanske är ok om vi har vårt eget 10GB LAN i huset och ingenannan datatrafikskall gå i detta. Men om vi ska skicka det till Youtube eller över Internet måste det ta mindre plats. Även internt i datanät finns det ju oftast annan trafik som blir lidande av att vår kamerabildström breder ut sig.Det löses genom komprimering, vilket vi återkommer till strax, en sak vi gör är att bestämma en bitrate, det vill säga hur många databitar av vår film som skickas varje sekund.
Det sista vi behöver är att binda ihop videoströmmen med ljudströmmen, som vi ju även vill ska komma fram samtidigt. Det gör man genom att skapa en förpackning som gör en ström av de bägge och även gör det möjligt att spara dem som en fil.
Exempel på förpackningar, Containers, är .mp4, .webm, .mkv . Du känner säkert igen dessa. För professionell video finns IPMX och ST2110, plus en massa företagsägda format men de tag ofta för mycket plats för att använda på ett öppet Internet om man inte skapar en ”tunnel” för dem. För internetanvändning är MP4 klart vanligast.
I en ideell värld skulle bitrate ( datahastighet/ storlek på data "ord") vara så hög som möjligt, men vi balanserar den mot bandbredds krav hos internet, switchar och användarmiljö. Vi aktar oss för att inte skapa latency, fördröjningar, som kommer när nätverket inte hinner med. Naturligtvis väldigt förenklat. Flera bitar på samma tid ger en bättre bild, men tar mera plats. Så minska storleken på originalet, öka streamingutrymmet eller balansera vilken kvalitet som krävs.

Ofta talar en om Lossless (oförstörande)komprimering och Lossy (förstörande) komprimering.
Lossy komprimering är förstörande. Vi plockar bort bitar tills signalen passar i den storlek vi vill ha och hoppas det inte märks så mycket. Moderna beräkningsalgoritmer har blivit mycket bättre på detta och H.265 ofta kallad HEVC,är ett exempel på detta. Mycket mindre än föregångaren H.264 ofta kallad MPEG-4 AVC, som är det vanligaste streamingformatet idag. Detta ät en komprimeringsmetod som arbetar med skillnaderna mellan ”filmrutorna”. För allmän streaming, KVM och lokala överföringar hittar du ofta H.264 och den är väldigt bra för kontinuerliga strömmar som inte synkas med varandra.
Vi skulle inte vara den datamarknad vi alla gillar om inte jättebolagen skull välja egna format, till exempel Googles VP9, ett öppet format du ofta hittar på Youtube eller AV1, som även är öppet, används mycket av Amazon, Netflix och Microsoft i deras egna produkter.
Även dessa använder lossy komprimering av skillnaderna mellan ”filmbilderna”.

Parallellt med utvecklingen av H.264 utvecklades andra algoritmer för system här bildkvalitén i den enskilda ”filmbilden” var viktig. Motion JPEG (MJPEG) behåller varje bildruta och tar bort och/eller krymper dessa för att ge in ”lossless” men mycket ineffektiv videoström.
Det går ut på att varje filmruta behålls och skannas, förenklat uttryckt, och du får en ström av bilder som kan vara komprimerade i sig eller i bildfrekvens.
Används fortfarande ofta i bildarkiv, medicinsk teknik och övervakningssystem.
Det utvecklas till Motion JPEG 2000 (MJ2), som kom runt millennieskiftet därav namnet. En hel del högkvalitativa AV system använde detta format under många år och många arkiv använder det.
Den nyaste utvecklingen är JPEG XS som vi ser i moderna bildproduktion system och ProAV system.
Kort sammanfattat är dessa format Lossless om du har nog bandbredd och ett eget nät med bra switchar
Men vi ska vända på myntet ett par gånger till!
Broadcast världen upptäckte snabbt att man är tvungen att använda streaming för att producera TV och flytta sändningar från studios och arenor till sändningsplatser. I början var det mång överföringar via företagsspecifika format, men när man började vilja ersätta de gamla koax och triax kamerakablarna sökte man format där olika tillverkare kunde prata med varandra.

Ett företag kallat NewTek, som tillverkar videoredigering och produktionsutrustning, skapade 2015 NDI (Network Device Interface). Från början var det ett, i princip, helt okomprimerat, lossless protokoll som skickar en YUV4:2:2 signal, det vill säga samma bildformat du matar in i din TV. Med tiden har man adderat komprimerande varianter ned till NDI HX3 som använder H.265. Gemensamt för alla är att du behöver köpa en licenser från tillverkaren för att använda formatet.
NDI är väldigt spritt i TV-produktion idag, mycket på grund av att strömmen innehåller Video, Ljud och Metadata. Metadata använder redan i Koaxformatet SDI, för att baka in annan information i videosignalen, till exempel text, teknisk information eller tidkod.

Society of Motion Picture and Television Engineers (SMPTE), som även skapade SDI standarden, såg behovet för en enhetlig och öppen standard för strömmande TV produktion, eftersom de flesta stora TV bolag inte var sugna på att bygga hela sin infrastruktur på ett licensbaserat format.
Från 2015 till 2022 utvecklade de en grupp av standarder som tillsammans definierar ett gemenast, öppet broadcast format för strömmande video. Det grundläggande videoformatet beskrivs i SMPT 2022, men i dagligt tal kallas den kompletta signalen med ljud, synkronisering, metadata och allt annat för ST2110.
ST2110 är ett RTP (real-time transport protocol), på svenska realtidsprotokoll, som arbetar med PTP (Precision Time Protocol), ett nätverksprokoll som kräver särskilda nätverkswitchar Standarden tillåter flera varianter där ST2110-10 är helt okomprimerat och ST2110-22 är en lätt komprimerad version. De flesta ST2110 system använder JPEG XS formatet för video. Vilket ger en fördröjning med mindre än 1 millisekund.
Med ST2110-22 kan man klara sig i 10G nätverk med begränsad trafik, till exemple i videoström. I dag byggs ST 2110 nätverk med 25-100 Gb/s. För att garantera avbrotts fri produktion byggs oftast dubbla nätverk, kallade RED/BLUE nät.
Från detta kan vi förstå att denna typ av signalhantering är svår att översätta till AV industrin behöva av att bygga konferensanläggningar, idrottsstadium och skapa live event och konserter.
Ett stort antal producenter har skapat egna format för överföringar med varierande kvalitet och fördröjning. Exempel på licens beroende format som ofta används är Dante, som finns i tre typer Dante AV, Dante AV-H och Dante-A. Fördelen är att Dante från början var ett ljudprotokoll och har en redan fungerande styrmiljö. Först nu börjar oberoende standarder komma vilket du kan läsa mer om här (PlexusAV).

När du väljer utrustning är bra att fundera på:
Behöver du hjälp att välja system var inte rädd att fråga om videoformat eller nätverksbehov för dessa.