De Broncode

Moderators: jkien, Xilvo

Reageer
Berichten: 24

Re: De Broncode

Joep schreef:Beste mensen,

STEL:

je slaat in een 'database' op:

een signaal op van 1 frame pixels combinatie

(of het nu met geluid is of nie)

bestaande uit:

-een signaal op voor 1 pixel combinatie

-een signaal op voor 1 rij pixels combinatie

simpel: 1 of 0 naar 2, de rij word dan uit alle mogelijkheden van deze 1en en 0en een 3, uit alle mogelijkheden van deze rijden word dan een frame bv een 4.

Zo heb je dus een woordenboek in een peramidevorm die een formule

opzet van een pixel signaal naar een rij-signaal naar een frame signaal.

Zo hoef je niet alles te gaan bekijken naar of het nou een 1 of een 0 is maar welke combinatie het zal zijn met betrekking tot deze getallen.
Hier moet ik even overna denken, maar het klinkt veel belovend.
Als we het niet over compressie hebben, dan is heel die kreet "een film in 1KB" die Pieper heeft laten vallen, volkomen onzin.
Nee, want JS had een database gecreerd en verpakt in solid state en de key-code bepaalde hoe die database gebruikt werd.

In zijn toepassing hoefde je de database maar 1 keer te creeren en vervolgens kon je met een sleutel daar weer alles uithalen.

Die database verarderde verder niet alleen de code.

Het systeem zou redelijk veel lijken op het midi systeem. Alleen had hij alles in solid state gegoten.
Computer games do not affect us. I mean: Otherwise we would all be running around in darkened rooms munching pills and listening to repetitive music.

Gebruikersavatar
Berichten: 5.679

Re: De Broncode

kokkie_d schreef:Nee, want JS had een database gecreerd en verpakt in solid state en de key-code bepaalde hoe die database gebruikt werd.

In zijn toepassing hoefde je de database maar 1 keer te creeren en vervolgens kon je met een sleutel daar weer alles uithalen.

Die database verarderde verder niet alleen de code.

Het systeem zou redelijk veel lijken op het midi systeem. Alleen had hij alles in solid state gegoten.
Wat bedoel je met solid state, dat de database niet verandert? Dat is bij midi in principe ook zo, al zijn er een boel verschillende databanken met instrumenten (dus met het ene midi device klinkt je muziek anders dan met een ander).

Hoe dan ook, ook dan komt het dus wel neer op compressie, want uit 1KB unieke data per film (en een flinke database, vergelijkbaar met een instrumenten databank bij midi) valt dan de originele film weer te reconstrueren.

En dat kan niet. In 370 MB data past nooit een universele "instrumenten databank" (om in vergelijking met midi te spreken) om iedere mogelijke film mee weer te geven, noch passen er in 1 KB bij lange na niet voldoende referenties naar "instrumenten" om een hele film mee te coderen.
In theory, there's no difference between theory and practice. In practice, there is.

Berichten: 4

Re: De Broncode

Ik denk dat we allemaal dezelfde fout maken.

We proberen een digitale representatie zo te comprimeren dat er digitaal ALTIJD een kleinere representatie onstaat. Dit is onmogelijk omdat als het aantal bits waarmee je 'codeert' ALTIJD kleiner is dan hetgene je codeerd, je in sommige gevallen een 1:n relatie krijgt die niet omkeerbaar uniek naar een langere waarde wijst.

Dat zou zelfs een kind nog kunnen begrijpen.

Als we kijken naar het 16x16 pixel princiepe, dan is de benodigde opslagcapciteit digitaal (Als we alleen naar twee kleuren, zwart en wit kijken) 256 bits om zwart of wit aan te geven. Het aantal mogeljke combinaties is 2^256 en als je dat al in een database (solid state of op harddisk) zou willen proppen dan heb je 1.1579208923731619542357098500869e+77 mogelijkheden en dat is vrij groot om op te slaan :-) en dan heb ik het nog niet eens over real kleur coderingen. Plus het feit dat je kunt constateren dat je dat digitaal niet ALTIJD kunt coderen met een sleutel die slechts 1 bit korter is. :-(

Als we uitgaan van het feit dat sloot een analoge tv technicus was, dan zou het echter kunnen (zo lang ik er geen verstand van heb denk geef ik een ander altijd het voordeel van de twijfel) dat de analoge signalen die over de ether gaan en waar een beperkter kleur palet van toepassing is (geen 'echt' zwart en 'echt' wit, zie de beschrijvingen van PAL TV op het internet) op een kortere wijze 'gecodeerd' kunnen worden als de 256 ^ kleur ^ intensiteit opslag die we de digitale representatie van video noemen.

Ik heb geen verstand van analoge TV signalen maar denk dat het iets te maken heeft met golflengtes en andere parameters die de TV laten weten wat er getoond moet worden.

Dus als we dat kleiner zouden kunnen coderen dan in digitale vorm dan hebben we een startpunt voor het bedenken van het eerste referentie geheugen.

denk hier eens over.........

Gebruikersavatar
Berichten: 5.679

Re: De Broncode

dat de analoge signalen die over de ether gaan en waar een beperkter kleur palet van toepassing is (geen 'echt' zwart en 'echt' wit, zie de beschrijvingen van PAL TV op het internet) op een kortere wijze 'gecodeerd' kunnen worden als de 256 ^ kleur ^ intensiteit opslag die we de digitale representatie van video noemen.
Dan hou je het zelfde probleem. Als je minder kleuren gebruikt wordt het natuurlijk kleiner, omdat je minder data opslaat. Maar daarmee gooi je tevens een deel van de originele informatie weg. Nu is niet alle informatie essentieel, een jpeg plaatje bevat ook niet alle originele informatie en dat ziet er meestal ook nog fatsoenlijk uit. Maar daar krijg je nooit de ruimtebesparing waar in het verhaal van Jan Sloot sprake van was.

(dat kwam namelijk neer op ruim 4 een een half frame per bit... en je kunt vast een hoop overbodige informatie weggooien, maar meerdere frames tot één 1 of 0 reduceren lijkt me te ver gaan)
Ik heb geen verstand van analoge TV signalen maar denk dat het iets te maken heeft met golflengtes en andere parameters die de TV laten weten wat er getoond moet worden.
Maar dan zou het om een heel andere manier van data opslag gaan. De kreet "16 films in 64 KB" slaat dan nergens op.
Dus als we dat kleiner zouden kunnen coderen dan in digitale vorm dan hebben we een startpunt voor het bedenken van het eerste referentie geheugen.
Maar het digitaal opslaan van data is toch niet groot of klein? Dat hangt toch maar net van het medium af?

In welke zin zou "analoge opslag" (met golflengtes of wat dan ook) kleiner zijn dan digitale?
In theory, there's no difference between theory and practice. In practice, there is.

Berichten: 4

Re: De Broncode

Dan hou je het zelfde probleem. Als je minder kleuren gebruikt wordt het natuurlijk kleiner, omdat je minder data opslaat. Maar daarmee gooi je tevens een deel van de originele informatie weg. Nu is niet alle informatie essentieel, een jpeg plaatje bevat ook niet alle originele informatie en dat ziet er meestal ook nog fatsoenlijk uit.
Ik bedoel niet een deel van de originele informatie weggooien. In een normaal TV signaal zijn bepaalde kleuren NIET aanwezig. Het kleuren spectrum is dus geen 256x256x256 kleuren (RGB) maar slechts 220x220x220 kleuren of iets dergelijks. Tv gebruikt geen kleuren kleiner dan 13x13x13 en hoger dan ik meen 245x245x245. Dat geeft een besparing en dat is de eerste winst.
Maar daar krijg je nooit de ruimtebesparing waar in het verhaal van Jan Sloot sprake van was.
Ik heb het ook (nog) niet over de gehele oplossing, alleen de eerste stap, het referentiegeheugen waarin de 16x16 blokken worden gecodeerd. :shock:
Ik heb geen verstand van analoge TV signalen maar denk dat het iets te maken heeft met golflengtes en andere parameters die de TV laten weten wat er getoond moet worden.
Maar dan zou het om een heel andere manier van data opslag gaan. De kreet "16 films in 64 KB" slaat dan nergens op.
Dan ga jij ervan uit dat ik bedoel dat het hele proces analoog zou verlopen. Ik heb het alleen over de eerste stap (wellich kun je dat de digitalisering noemen) waarbij het uiteindelijke TV signaal via een slimme codering van golflengte x weetikveel x weetikveel wordt omgezet naar een digitale codering, waarmee je dan verder kunt gaan.
Maar het digitaal opslaan van data is toch niet groot of klein? Dat hangt toch maar net van het medium af?
Als je het fysieke size van het medium bedoeld ja. Maar ik bedoel of je de instructies voor de electronica (golflengte etc.) in MINDER BITS zou kunnen opslaan als het beeld zelf (= eindresulttaat).
In welke zin zou "analoge opslag" (met golflengtes of wat dan ook) kleiner zijn dan digitale?
Ja, dat weet ik dus niet. Maar als ik het niet weet, betekend het niet dat het onmogelijk is. We weten dat we er puur binair NIET uitkomen. Het is onmogelijk om lossless the comprimeren. Dus moeten we het zoeken in de twilightzone between analoog en digitaal.

Gebruikersavatar
Berichten: 5.679

Re: De Broncode

Ik bedoel niet een deel van de originele informatie weggooien. In een normaal TV signaal zijn bepaalde kleuren NIET aanwezig. Het kleuren spectrum is dus geen 256x256x256 kleuren (RGB) maar slechts 220x220x220 kleuren of iets dergelijks. Tv gebruikt geen kleuren kleiner dan 13x13x13 en hoger dan ik meen 245x245x245. Dat geeft een besparing en dat is de eerste winst.
Maar dan sla je toch minder informatie op? Pixels waarvan de componenten slechts 220 waardes kunnen aannemen kunnen minder informatie representeren, je geeft het beeld minder exact weer.
Ik heb het ook (nog) niet over de gehele oplossing, alleen de eerste stap, het referentiegeheugen waarin de 16x16 blokken worden gecodeerd.   :shock:
Het idee achter die 16x16 blokjes begrijp ik nog niet helemaal, wat is nu het voordeel van het comprimeren (of anders encoderen) van 16x16 blokjes met minder kleuren dan 2563 ten opzichte van gewoon het hele beeld opslaan met minder kleuren?

Maar hoe dan ook, als je in termen gaat spreken van minder kleuren of opslaan in blokjes van 16x16, dan hebben we het eigenlijk toch over een methode die is gebaseerd op datacompressie? Als dit soort truuks echt ruimtebesparing opleveren, kunnen ze ook digitaal worden toegepast.
Dan ga jij ervan uit dat ik bedoel dat het hele proces analoog zou verlopen. Ik heb het alleen over de eerste stap (wellich kun je dat de digitalisering noemen) waarbij het uiteindelijke TV signaal via een slimme codering van golflengte x weetikveel x weetikveel wordt omgezet naar een digitale codering, waarmee je dan verder kunt gaan.
Maar wat zou dan in vredesnaam de betekenis van "16 films in 64KB" moeten zijn? Het enige dat ik me kan voorstellen wat zo'n uitspraak rechtvaardigt, is als er op enig punt (eventueel na digitalisering van een analoge bron) 64KB aan data is waarin 16 films worden geprepresenteerd. Als je dat voor elkaar krijgt kun je de eventuele analoge opslag die daaraan voorafgaat wel achterwege laten, en lekker die 64KB op de gebruikelijke (digitale) manieren opslaan, want dat zou op zich al een doorbraak zijn (waarvan ik denk dat het beslist onmogelijk is).
Als je het fysieke size van het medium bedoeld ja. Maar ik bedoel of je de instructies voor de electronica (golflengte etc.) in MINDER BITS zou kunnen opslaan als het beeld zelf (= eindresulttaat).
Dan zou je dus in feite toch een manier hebben om gegarandeerd informatie in minder bits dan zichzelf op te slaan, en dat kan niet.

Want het zou impliciet neerkomen op: een film is in digitale vorm x bits groot, en de "analoge instructies" voor die film kosten y bits, en y<x.
In welke zin zou "analoge opslag" (met golflengtes of wat dan ook) kleiner zijn dan digitale?
Ja, dat weet ik dus niet. Maar als ik het niet weet, betekend het niet dat het onmogelijk is. We weten dat we er puur binair NIET uitkomen. Het is onmogelijk om lossless the comprimeren. Dus moeten we het zoeken in de twilightzone between analoog en digitaal.
Waar het om gaat is dat je een hoeveelheid informatie altijd kunt uitdrukken in een aantal bits, ook zonder dat je het per se digitaal opslaat. Denk maar aan een analoog casettebandje, daar kun je een bepaalde hoeveelheid informatie op kwijt, en die hoeveelheid is uit te drukken in bits (ook al sla je het niet binair op).

Daarom komen oplossingen als "binair krijgen we het niet kleiner, dus dan maar analoog proberen" mij zo onzinnig over.

Even naar de kern van de zaak: toen Jan Sloot claimde een manier te hebben om films (audiovisuele data) klein op te slaan, bedoelde hij dan:

- fysiek klein, dus een hoop films op een véél kleiner/compacter opslagmedium dan de harddisks of dvd's van nu (ongeacht de hoeveelheid informatie / bits hij daarvoor gebruikte per film)

- logisch klein, dus in minder bits (ongeacht of hij die data dan digitaal of analoog opslaat, en of hij daarvoor een klein compact of groot opslagmedium gebruikte)

Het eerste acht ik best mogelijk, maar dan is "16 films in 64KB" complete bullshit. Het tweede is onmogelijk.

(PS: overigens heb ik momenteel een kastje dat nauwelijks groter is dan mijn hand, en waar 350 films op staan. Zou ik daar nog wat mee kunnen lospeuteren bij Pieper? ;) )
In theory, there's no difference between theory and practice. In practice, there is.


Gebruikersavatar
Berichten: 5.679

Re: De Broncode

In dat eerste artikel zie ik op de foto "15 kbit/sec" staan. Dat is voor films op mobieltjes-formaat niets bijzonders, fullsize speelfilms worden met gangbare compressietechnieken al kleiner.
"neen, noem het geen compressietechniek" - waarmee hij onder meer twintig dvd-films op één cd-rom kan wegschrijven, zonder kwaliteitsverlies.
Twintig films op één cd-rom komt neer op één film in 35 MB. Dat is misschien mogelijk, maar dan heeft ie wel een briljante compressietechniek. Als hij claimt dat het géén compressie is, dan slaat de kreet cd-rom nergens op, want dan gebruikt hij kennelijk een ander medium. Wat er misschien uitziet als een cd-rom, maar waar veel meer dan 700 MB aan informatie op past. Ook dat is mogelijk natuurlijk, denk maar aan dvd's die er ook net zo uitzien als een cd-rom, waar 17 GB (dual layer) op past.

Verderop staat trouwens:
Defossé laat ons een dvd-film zien die hij verkleind heeft tot een onwaarschijnlijke 30 MB.
Dus dat is gewoon compressie, en tien tot twintig maal zo goed als de bestaande technieken.

En onderaan:
Een diskette heeft een opslagcapaciteit van 1,44 MB.

(...)

"Met een eigen player krijg je een half uur tv-beelden in full screen op floppy", verzekert de man.
Welja, nóg eens 7 keer zo goed als die speelfilm in 30 MB ( = half uur in 10MB) van hierboven?

Kom op, hoe geloofwaardig is dit? Eerst al een verbetering van 20x claimen ten opzichte van de bestaande technieken, wat al revolutionair is, en daarna kan dat ineens nog een keer 7 maal zo goed? :shock:
Foto's onbeperkt vergroten

Vertrekpunt is een detail van een foto van drie op drie centimeter. In een fotocentrum met geavanceerde technologie blijkt het onmogelijk om het detail met een aanvaardbare kwaliteit tweeduizend keer te vergroten. Defossé kan dit blijkbaar wel (geen kwaliteitsverlies!) dankzij zijn techniek, een A3-kleurenprinter, een schaar en plakband. Een meegebrachte foto vergroot hij een paar duizend keer. Het bestand is amper 19 MB groot en Defossé maakt zich sterk dat hij daar zelfs 500k kan van maken.
Wat is dit voor lariekoek... Ten eerste: wat is een foto van drie bij drie centimeter?? Als dat een foto op een een miljoen dpi is, ja dan kan ik 'em ook wel een paar duizend keer vergroten en nog steeds een scherp resultaat hebben... Ten tweede: een bestand van 19MB, lijkt me ook niet geheel representatief voro een foto van 3 x 3 cm (zelfs 500 Kb is dan al groot).

Ten derde: ik weet toevallig het nodige van interpolatie en vergroting van digitale foto's, en duizend maal vergroten zonder kwaliteitsverlies is onzin. Strikt genomen heb je sowieso nooit kwaliteitsverlies bij het vergroten, want je voegt alleen informatie (pixels) toe. Maar wat hij bedoelt is zoiets als dat de vergroting dezelfde hoeveelheid detail- of informatiedichtheid bevat als het origineel. En dat kan niet, want die informatie is nergens.

Een paar duizend maal vergroten wil zeggen dat één pixel al wordt opgeblazen tot een complete foto op zich, en die informatie zit gewoon niet in het origineel. Ik heb zelf een (gepatenteerde) techniek uitgevonden om digitale vergrotingen te maken met veel meer behoud van scherpte en detail dan bestaande algoritmes, en dit werkt goed tot een paar duizend procent (dus tot zo'n 20 a 30 keer vergroten) maar hoe meer je vergroot, hoe meer je gaat zien dat het een vergroting is die "berekend" detail bevat. Ik denk trouwens dat dat geavanceerde fotocentrum ook een paar duizend procent bedoelde, of ze moeten met analoge foto's hebben gewerkt (en dus niet "een bestand van 19MB").

Digitale foto's een paar duizend maal vergroten en dan nog een vergelijkbare kwaliteit krijgen kan niet.
In theory, there's no difference between theory and practice. In practice, there is.

Berichten: 4

Re: De Broncode

Maar dan sla je toch minder informatie op? Pixels waarvan de componenten slechts 220 waardes kunnen aannemen kunnen minder informatie representeren, je geeft het beeld minder exact weer.
Deze informatie was al niet aanwezig in het originele signaal. PAL and NTSC TV bevatten slechts 220 verschillende kleuren waar onze digitale techniek ruimte voor 256 kleuren reserveerd.
Het idee achter die 16x16 blokjes begrijp ik nog niet helemaal, wat is nu het voordeel van het comprimeren (of anders encoderen) van 16x16 blokjes met minder kleuren dan 2563 ten opzichte van gewoon het hele beeld opslaan met minder kleuren?
The 16 x 16 moet je los zien van de kleuren. Sloot had het over blokjes van 16x16 in zijn octrooi aanvraag dus waarom zouden wij wijsneuzen nu gaan zoeken naar een 8x8 patroon of een patroon voor een heel beeld. Ik begrijp het wel dat als je een probleem eerst in hapklare brokken verdeeld het beter hanteerbaar is.
Maar hoe dan ook, als je in termen gaat spreken van minder kleuren of opslaan in blokjes van 16x16, dan hebben we het eigenlijk toch over een methode die is gebaseerd op datacompressie? Als dit soort truuks echt ruimtebesparing opleveren, kunnen ze ook digitaal worden toegepast.
Ik geef toe dat het verschil tussen data compressie en coderen van data gevaarlijk dicht bij elkaar ligt. Bij compressie ga je eigenlijk beoordelen hoe je het kund coderen zodat het kleiner wordt. Er worden geen prijzen uitgereikt voor coderingen die het origineel groter maken :-)
Maar wat zou dan in vredesnaam de betekenis van "16 films in 64KB" moeten zijn? Het enige dat ik me kan voorstellen wat zo'n uitspraak rechtvaardigt, is als er op enig punt (eventueel na digitalisering van een analoge bron) 64KB aan data is waarin 16 films worden geprepresenteerd. Als je dat voor elkaar krijgt kun je de eventuele analoge opslag die daaraan voorafgaat wel achterwege laten, en lekker die 64KB op de gebruikelijke (digitale) manieren opslaan, want dat zou op zich al een doorbraak zijn (waarvan ik denk dat het beslist onmogelijk is).
Stapje voor stapje beste Rogier! Als we nu eerst 'even' oplossen dat we 16x16 blokjes via analoog-digitaal vertaling altijd kleiner kunnen opslaan als de theoretische digitale codering dan hebben we al het eerste geheim ontrafelt.

Dan moet je nog eens aan iets anders denken. Ik heb er niet de kennis voor maat ik denk als je een half uurtje willekeurige video eens zou analyseren op:

a. basis van 16 x 16 blokjes

b. basis van lijnen

c. basis van kolommen

ik het gevoel heb dat het aantal 16x16 blokjes dat in twee opeenvolgende frames nog steeds hetzelfde is groter is dan het aantal lijnen of kolommen. Of, anders gezegd, als ik het eerste frame zou opdelen in 16x16 blokjes en die zou coderen, ik een groot aantal van die blokjes, wellicht op een andere plaats, weer zou kunnen weergebruiken in het tweede frame. Voor lijnen gaat dat zeker niet op, voor kolommen weet ik niet maar kolommen ligt minder voor de hand omdat TV beelden lijn georienteerd zijn.
Want het zou impliciet neerkomen op: een film is in digitale vorm x bits groot, en de "analoge instructies" voor die film kosten y bits, en y<x.
Precies, je begint mijn denkwijze te begrijpen!
Rogier schreef:Waar het om gaat is dat je een hoeveelheid informatie altijd kunt uitdrukken in een aantal bits, ook zonder dat je het per se digitaal opslaat. Denk maar aan een analoog casettebandje, daar kun je een bepaalde hoeveelheid informatie op kwijt, en die hoeveelheid is uit te drukken in bits (ook al sla je het niet binair op).

Daarom komen oplossingen als "binair krijgen we het niet kleiner, dus dan maar analoog proberen" mij zo onzinnig over.
Ik kan je gedachtengang begrijpen maar ik veronderstel dat jij net zo min als ik verstand hebt van analoge tv signalen en de karateristieken daarvan en we weten dat sloot die wel had. Te makkelijk om te zeggen: "Als ik het niet begrijp dan kan het niet". Geef ik die dooie Sloot toch het voordeel van de twijfel omdat hij kennis had die wij niet hebben. (Als was het alleen maar van Hoe praat ik Pieper en de ABN miljoenen uit de zak!)
Rogier schreef:Even naar de kern van de zaak: toen Jan Sloot claimde een manier te hebben om films (audiovisuele data) klein op te slaan, bedoelde hij dan:

- fysiek klein, dus een hoop films op een véél kleiner/compacter opslagmedium dan de harddisks of dvd's van nu (ongeacht de hoeveelheid informatie / bits hij daarvoor gebruikte per film)

- logisch klein, dus in minder bits (ongeacht of hij die data dan digitaal of analoog opslaat, en of hij daarvoor een klein compact of groot opslagmedium gebruikte)

Het eerste acht ik best mogelijk, maar dan is "16 films in 64KB" complete bullshit. Het tweede is onmogelijk.
I beg to differ on this:

Als we twee verschillende digitaliserings methoden voor video vergelijken, dan kan het zo zijn dat een zekere methode x een kleiner digitaal bestand oplevert dan methode y, waarbij de zichbare kwaliteit hetzelfde is. Je moet ervan uitgaan dat er inderdaad bepaalde kleuren in het 256x256x256 kleuren palet, waarvoor de meeste digitale technieken 'bits' reserveren niet worden gebruikt in een TV beeld. en 220x220x220 is substantieel kleiner dan 256x256x256.

Dan kan het nog zo zijn dat bepaalde kleuren met het menselijk oog niet te onderscheiden zijn en dat je daardoor het aantal kleuren dat je op moet slaan nog verder kunt vergelijken. Vergeet niet dat de demonstraties door menselijke ogen beoordeeld is en niet met een programmatje dat kijkt of alle bits er nog zijn.

Dan kunnen er nog andere zaken zijn waarbij je een PAL beeld met interpolatie lijnen niet vertaald naar een vol beeld maar naar een half beeld (50% van de lijnen) zoals dat in de PAL en NTSC broadcasting wordt gedaan en dat kan van belang zijn bij de uiteindelijke digitalisering.

Het eindresultaat van een dergelijke stelling is dat je in theorie niet kunt aantonen dat het ALTIJD kleiner kan maar dat in de praktijk op een hele film met miljoenen beelden het ontwaarschijnlijk is dat het met geen enkel beeld kan.

je kunt dan zeggen dat de methode x altijd een kleiner digitaal bestand oplevert dan methode y.
(PS: overigens heb ik momenteel een kastje dat nauwelijks groter is dan mijn hand, en waar 350 films op staan. Zou ik daar nog wat mee kunnen lospeuteren bij Pieper? :shock: )
Op basis van jou theorie dat deze stelling evengoed iets kunnen zeggen over de grootte van jou handen. :-)

Kijk, wat dat betreft was sloot toch slimmer dan wij.

Gebruikersavatar
Berichten: 5.679

Re: De Broncode

Ik geef toe dat het verschil tussen data compressie en coderen van data gevaarlijk dicht bij elkaar ligt. Bij compressie ga je eigenlijk beoordelen hoe je het kund coderen zodat het kleiner wordt. Er worden geen prijzen uitgereikt voor coderingen die het origineel groter maken :-)
Volgens mij is coderen afspreken hoe je bepaalde informatie opslaat, en compressie is een codering die minder ruimte inneemt dan het origineel (meestal dan, lukt niet altijd ;) ).
Stapje voor stapje beste Rogier! Als we nu eerst 'even' oplossen dat we 16x16 blokjes via analoog-digitaal vertaling altijd kleiner kunnen opslaan als de theoretische digitale codering dan hebben we al het eerste geheim ontrafelt.


Ja maar dat kan dus niet. Als je een blokje data van 16x16 (of welke andere afmeting dan ook) via wat voor proces dan ook omzet naar iets anders, dan kan het niet zo zijn dat het resultaat altijd in minder bits past dan het origineel. Dat is aantoonbaar onmogelijk.
Dan moet je nog eens aan iets anders denken. Ik heb er niet de kennis voor maat ik denk als je een half uurtje willekeurige video eens zou analyseren op:

a. basis van 16 x 16 blokjes

b. basis van lijnen

c. basis van kolommen

ik het gevoel heb dat het aantal 16x16 blokjes dat in twee opeenvolgende frames nog steeds hetzelfde is groter is dan het aantal lijnen of kolommen. Of, anders gezegd, als ik het eerste frame zou opdelen in 16x16 blokjes en die zou coderen, ik een groot aantal van die blokjes, wellicht op een andere plaats, weer zou kunnen weergebruiken in het tweede frame.
Ik weet toevallig het een en ander van digitale video & image processing, en de winst die je hierbij haalt is marginaal. Dit neemt natuurlijk toe naarmate je meer verlies toestaat (d.w.z. dat je twee blokjes hetzelfde noemt als hun verschil onder een bepaald niveau ligt), maar je moet al heel veel informatie weggooien wil je hier echt ruimte mee winnen.

We hebben het trouwens over 1200 blokjes per frame (uitgaande van 640x480, TV resolutie is nog iets hoger). Nog even los van hoeveel 16x16 blokjes er in een gemiddelde film zitten (en dus hoeveel bits je nodig hebt om 1 blokje te indexeren), een lijst van 1200 verwijzingen naar blokjes per frame en 135000 frames per film, dat past nooit in 4 KB.
Voor lijnen gaat dat zeker niet op, voor kolommen weet ik niet maar kolommen ligt minder voor de hand omdat TV beelden lijn georienteerd zijn.
Dat heeft er niets mee te maken, een TV bouwt fysiek het beeld op je scherm in horizontale lijnen op, maar staat helemaal los van de inhoud van dat beeld. De mate waarin verschillende lijnen danwel kolommen in een film overeenkomen hangt 100% af van de content van die film. Je zou ook een TV kunnen maken die je beeld opbouwt uit verticale kolommen, die kan dezelfde films tonen.
Rogier schreef:
Want het zou impliciet neerkomen op: een film is in digitale vorm x bits groot, en de "analoge instructies" voor die film kosten y bits, en y<x.
Precies, je begint mijn denkwijze te begrijpen!
Maar wat je wil is onmogelijk. Stel dat er een manier is om x bits om te zetten naar "analoge instructies" (of wat voor magische procedure je ook verzint) en die instructies kosten y bits om op te slaan, en y<x. Maar nu heb ik 2y+1 films. Die passen niet allemaal in y bits, want daar kun je maar 2y verschillende originelen uit reconstrueren.

Of anders gezegd: je kunt vervolgens hetzelfde proces ook toepassen op die y bits, waardoor je de analoge instructies voor de analoge instructies voor x in z bits krijgt, met z<y. Enzovoort. Of als het alleen werkt op blokken van x bits, dan doe je het met meerdere blokken van y bits (dit tezamen een veelvoud van x vormen) tegelijk. Op die manier krijg je alles naar 1 bit. En dat kan niet :shock:
Ik kan je gedachtengang begrijpen maar ik veronderstel dat jij net zo min als ik verstand hebt van analoge tv signalen en de karateristieken daarvan en we weten dat sloot die wel had. Te makkelijk om te zeggen: "Als ik het niet begrijp dan kan het niet". Geef ik die dooie Sloot toch het voordeel van de twijfel omdat hij kennis had die wij niet hebben. (Als was het alleen maar van Hoe praat ik Pieper en de ABN miljoenen uit de zak!)
Ik weet er wel iets van, ik begrijp hoe d.m.v. modulatie er meerdere signalen over 1 kabel gaan, maar niet zoveel als Sloot. Ik weet echter wél het nodige van informatie- en beeldverwerking, en er zijn dingen waarvan ik bij voorbaat kan bewijzen dat het onmogelijk is. Daar is geen ruimte voor analoge truuks of "voorbij het digitale denken" of andere hekserij die ik over het hoofd zie. Qua compressie is het einde nog niet in zicht, en qua fysieke informatieopslag zeker niet. Maar sommige dingen zijn wiskundig glashelder te bewijzen.
Rogier schreef:Even naar de kern van de zaak: toen Jan Sloot claimde een manier te hebben om films (audiovisuele data) klein op te slaan, bedoelde hij dan:

- fysiek klein, dus een hoop films op een véél kleiner/compacter opslagmedium dan de harddisks of dvd's van nu (ongeacht de hoeveelheid informatie / bits hij daarvoor gebruikte per film)

- logisch klein, dus in minder bits (ongeacht of hij die data dan digitaal of analoog opslaat, en of hij daarvoor een klein compact of groot opslagmedium gebruikte)

Het eerste acht ik best mogelijk, maar dan is "16 films in 64KB" complete bullshit. Het tweede is onmogelijk.
I beg to differ on this:

Als we twee verschillende digitaliserings methoden voor video vergelijken, dan kan het zo zijn dat een zekere methode x een kleiner digitaal bestand oplevert dan methode y, waarbij de zichbare kwaliteit hetzelfde is.
Tuurlijk, als je 2 methoden vergelijkt kan de ene best altijd kleiner zijn dan de ander.

Maar ik had het over de 2 manieren om "kleiner dan de huidige technieken" te interpreteren. Wat bedoelde Jan Sloot of Pieper toen ze het over "klein opslaan" hadden?

(en als het om "fysiek klein" ging, dan slaan uitspraken als "16 films in 64KB" echt nergens op)
Je moet ervan uitgaan dat er inderdaad bepaalde kleuren in het 256x256x256 kleuren palet, waarvoor de meeste digitale technieken 'bits' reserveren niet worden gebruikt in een TV beeld. en 220x220x220 is substantieel kleiner dan 256x256x256.

Dan kan het nog zo zijn dat bepaalde kleuren met het menselijk oog niet te onderscheiden zijn en dat je daardoor het aantal kleuren dat je op moet slaan nog verder kunt vergelijken. Vergeet niet dat de demonstraties door menselijke ogen beoordeeld is en niet met een programmatje dat kijkt of alle bits er nog zijn.
Door 220 kleuren per kanaal te gebruiken ipv 256 win je 0.7 bit (van de 24) per pixel, een winst van nog geen 3%, dus die winst is te verwaarlozen. Je kunt inderdaad nog meer weggooien zonder zichtbaar verlies, gangbare compressies doen al soortgelijke dingen. In plaats van RGB wordt een kleur opgebouwd uit 1 intensiteit en 2 kleurcomponenten (YCbCr of YUV/YIQ) en van de 2 kleurcomponenten wordt de helft aan precisie weggegooid, of maar 1 keer per 4 pixels opgeslagen. Daarmee win je al 50%. Maar dat soort dingen zullen absoluut in de verste verte niet de compressieratio's halen die in dit verhaal genoemd werden.
Dan kunnen er nog andere zaken zijn waarbij je een PAL beeld met interpolatie lijnen niet vertaald naar een vol beeld maar naar een half beeld (50% van de lijnen) zoals dat in de PAL en NTSC broadcasting wordt gedaan en dat kan van belang zijn bij de uiteindelijke digitalisering.
Dat komt neer op de helft van je lijnen weggooien en naderhand weer erbij interpoleren. Kan, maar dat is beslist zichtbaar (kan ik je uit ervaring verzekeren ;) ).
Het eindresultaat van een dergelijke stelling is dat je in theorie niet kunt aantonen dat het ALTIJD kleiner kan maar dat in de praktijk op een hele film met miljoenen beelden het ontwaarschijnlijk is dat het met geen enkel beeld kan.

je kunt dan zeggen dat de methode x altijd een kleiner digitaal bestand oplevert dan methode y.
Dat kan sowieso, maar beweren dat een methode (welke methode dan ook) altijd een digitaal bestand oplevert van zus of zoveel KB gaat op een bepaald moment gewoon niet meer op.

Kijk, ongecomprimeerd is een film op PAL resolutie zo'n 146 GB (uitgaande van 720x540, 90 minuten, 25 fps). Met hedendaagse compressie krijg je dit op acceptabele kwaliteit (afhankelijk van de content, maar de gemiddelde film zeg maar) wel op 700 MB. Dit is niet lossless, en de verschillen zijn zelfs zichtbaar, maar "voor het oog" ziet het er goed uit. In deze techniek zijn al de meest bizarre truuks en complexe optimilisaties toegepast, dubbele informatie weggooien, kleuren reduceren, noem maar op. En dan hebben we het over hele ingewikkelde informatie- & dataverwerkende processen. Geen gesleutel aan kastjes met draaiknoppen en transistoren, maar harde wiskunde.

Als je dat weet te verbeteren met procenten, is dat knap. Als je het kunt halveren, is het briljant. En Sloot, die geen informaticus was maar een analoge technicus, zou hier met 4KB per film zo'n 99,999% vanaf halen?

Dat een methode voor het gros van de films (ruw gezegd "bij iedere normale film") werkt, daar kan ik inkomen. Dat blijkt in de praktijk, iedere film die je met xvid comprimeert tot 700MB ziet er op z'n minst redelijk uit (random ruis of speciale patronen trouwens niet). Maar in een film zit een bepaalde hoeveelheid intrinsieke data, een "gewicht" aan informatie zeg maar, en die kun je niet willekeurig klein krijgen. Ongeacht wat voor analoge truuks, encoding manieren, niet-binaire datastructuren of wat dan ook, je hebt er uiteindelijk toch een bepaald aantal bits aan informatie voor nodig om op te slaan. 700 MB zal vast nog niet de ondergrens zijn, maar 4 KB zit er ver onder.
In theory, there's no difference between theory and practice. In practice, there is.

Re: De Broncode

Heeft er iemand wel eens stilgestaan bij de (de-)codering van rouw ferquentie signaal via de principes van cululair automa( zie. stephen wolfram; A New kind of science), hiermee kunnen multidemsionale (vector/achtige..) algoritmen bedacht worden die de oorspronkelijke input bron kunnen zeven en in facoren van 1 uit 256 automata regels, kunnen worden opgesplitst ( zie: sum[Abs[a i]2 , {i, 2 n}] == 1 ofwel 2nx2n en dan {x, y} -> {x, mod[x + y, 2]} voor reverse? )

Gebruikersavatar
Berichten: 5.679

Re: De Broncode

Heeft er iemand wel eens stilgestaan bij de (de-)codering van rouw ferquentie signaal via de principes van cululair automa( zie. stephen wolfram; A New kind of science), hiermee kunnen multidemsionale  (vector/achtige..) algoritmen bedacht worden die de oorspronkelijke input bron kunnen zeven en in facoren van 1 uit 256 automata regels,  kunnen worden opgesplitst ( zie: sum[Abs[a i]2 , {i, 2 n}] == 1  ofwel 2nx2n  en dan {x, y} -> {x, mod[x + y, 2]} voor reverse? )
Nooit van gehoord, gaat dat om wiskundige truuks (gezien de formules) of om een fysieke toepassing ("frequentie signaal")?

Met wiskundige truuks krijg je data niet zomaar kleiner (zéker niet in de mate die door Jan Sloot en Pieper genoemd werden), en met fysieke / "technische" toepassing is er geen sprake van informatie groot of klein opslaan. Dus ik ben benieuwd hoe dit tot films in weinig KB zou moeten leiden?
In theory, there's no difference between theory and practice. In practice, there is.

Re: De Broncode

Het resultaat zou in theorie moeten lijden tot een genirieke code die ongeveer het zelfde gedrag vertoont binnen een algoritme (systeem) als waneer dit gebeurd bij fractal geometrische systemen of algoritmen, die gebaseerd zijn op dit principe.

Input

stap1

rouw singnaal.

stap2

statisch interpeteren van het signaal naar numirieke (spanningswaarde V)

Trueput

stap3

codestream verslteutelen met daarin besloten T (tijd,matrix waarde)

stap4

Op basis van de onstane datastream vaststellen welke automata regel van toepassing is en n(x) en regel versleutelen in een nieuwe codesteam

Output:

1kb sleutel?

Reverse:

De sleutel activeert binnen het decompressie algoritme(n) de diverse automata regels die vervolgens weer nieuwe automata veroorzaakt en uiteindelijk de oorspronkelijke codestream genereerd die weer gebruikt kan worden om het oorspronkelijke singaal te produceren.

(het is nog vrij vage ingeving, ik moet deze nog beter uitwerken)

(lees: notion of comutational equivilance)

Een simpele set regels die complex gedrag gaan vertonen naarmate n=>1



Misschien een zetje in de goede richting?

Gr. Piet

Berichten: 4

Re: De Broncode

stephen wolfram
:shock: 849 pagina's online in het Engels.

Verwacht een reachtie van mij around christmas 2007 ;)

Ik heb het eerste hoofdstuk gelezen en een beetje gebladerd. Kwam de term "Een niewe manier van denken..." ook niet in de Broncode voor?

Met het traditionele denken en bitjes-tellen komen we er niet.

Zou Thomas Edison ook steeds maar gedacht hebben dat het produceren van licht uit electriciteit 'onmogelijk' was? Ik denk het niet.

Ik vindt dit op zijn minst een interessant spoor!

Re: De Broncode

Piramide achtige geometrie... mmm !!

Reageer