Springen naar inhoud

Onmogelijk? oneindige rekenkracht


  • Log in om te kunnen reageren

#1

dtech

    dtech


  • >25 berichten
  • 37 berichten
  • Gebruiker

Geplaatst op 30 juni 2007 - 08:55

Hallo,
ik las laast een artikel over de theorie dat ons heelal niets anders is dan een emulatie van een supercomputer, en dat heeft me aan het denken gezet.
Stel, je hebt de volgende situatie: over 100 jaar kan de mens een supercomputer bouwen met genoeg rekenracht om een volledig heelal te emuleren.
Mijn vraag is: is dit niet onmogelijk omdat je dan theoretisch met een zo'n computer oneindig veel informatie tegelijkertijd kan verwerken? Ik bedoel op de volgende manier:
"Hoofduniversum" bouwt supercomputer, die Universum "A" simuleert
In A worden 10 supercomputers gebouwd, die 10 universa "B" simuleren.
In B worden 10 supercomputers gebouwd, die 10 universa "C" simuleren.
De in totaal 10^2 = 100 computers hebben allemaal dezelfde rekenkracht als de eerste computer, en zouden een programma dus ook 100 keer zo snel moeten kunnen oplossen.
Maar is dit niet een onmogelijkheid? Omdat je op deze manier dus een oneindige hoeveelheid rekenkracht tot je beschikking zou kunnen hebben met een bepaalde hoeveelheid rekenkracht :S

Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.

#2

stoker

    stoker


  • >1k berichten
  • 2746 berichten
  • Ervaren gebruiker

Geplaatst op 30 juni 2007 - 09:13

die supercomputer bouwen is al onmogelijk, en als je dan nog eens de toekomst zou willen voorspellen met die computer, dan heb je alle kenmerken van het heden ook nodig, dus als waarnemingsgevens, om daaruit te starten met je berekeningen.
zo'n gedachtengangen zullen enkel theoretisch en filosofisch blijven. en om de toekomst te kunnen voorspellen, moet je al vertrekken van determinisme, wat je ook nog eens in vraag kan stellen
denk ook aan de demon van Laplace.

Veranderd door superslayer, 30 juni 2007 - 09:14


#3

ypsilon

    ypsilon


  • >5k berichten
  • 11085 berichten
  • VIP

Geplaatst op 30 juni 2007 - 11:00

ik las laast een artikel over de theorie dat ons heelal niets anders is dan een emulatie van een supercomputer, en dat heeft me aan het denken gezet.

Is hier daadwerkelijk een theorie rond? Want dit is natuurlijk een mogelijkheid, een nieuwe vorm voor het idee dat onze realiteit niet reëel is... Een beetje als "the Matrix" of Deep Thought.

#4

dtech

    dtech


  • >25 berichten
  • 37 berichten
  • Gebruiker

Geplaatst op 30 juni 2007 - 12:07

Is hier daadwerkelijk een theorie rond? Want dit is natuurlijk een mogelijkheid, een nieuwe vorm voor het idee dat onze realiteit niet reëel is... Een beetje als "the Matrix" of Deep Thought.


Voor alles is natuurlijk wel een of andere gekke theorie :D Maar het stond in het artikel "Eenzaam in het heelal" uit de NatuurWetenschapenTechniek van Juni. Was een artikel over de mogelijkheid van intelligent leven in het heelal, en de vraag of er al dan niet parallele universa bestonden. Er stond ook een paragraafje over deze theorie. Ik citeer:

Het kan nog gekker: op grond van een aanname die binnen een deel van het vakgebied voor heel plausibel doorgaat, leven wij waarschijnlijk in een computersimulatie - zeg maar zoals in de film The Matrix. Virtual reality, zo luidt de aanname, wordt kwalitatief zo snel beter, dat er een moment komt dat die voor een mens niet meer van echt te onderscheiden is. Uiteindelijk zal ook een mens, inclusief diens bewustzijn, als simulatie op een computer te implenteren zijn. Een variant is dat de bedenker van de simulatie zelfs een heuse oerknal heeft veroorzaakt, bijvoorbeeld door een van Lee Smolins zwarte gaten met een heelal erin te creëren.
.. Nog meer, maar ik wil het copyright van NWT niet nog meer schenden ..

Interresant artikel in ieder geval, ik zou zeggen: loop naar de kiosk en koop een nummer :D

#5

ypsilon

    ypsilon


  • >5k berichten
  • 11085 berichten
  • VIP

Geplaatst op 30 juni 2007 - 12:16

Daar kan je dus alle kanten mee uit. Dit lijkt me eerder Sci-Fi dan een volwaardige theorie of filosofie...

#6

High-Voltage

    High-Voltage


  • >250 berichten
  • 384 berichten
  • Ervaren gebruiker

Geplaatst op 30 juni 2007 - 23:25

die supercomputer bouwen is al onmogelijk,

Dat is wel een heel gewaagde aanname...

en als je dan nog eens de toekomst zou willen voorspellen met die computer, dan heb je alle kenmerken van het heden ook nodig, dus als waarnemingsgevens, om daaruit te starten met je berekeningen.

True, als alles te vatten is in wetten dan zou je de toekomst kunnen voorspellen. En dat ging juist niet.

#7

Jeroen Bouterse

    Jeroen Bouterse


  • >250 berichten
  • 261 berichten
  • Ervaren gebruiker

Geplaatst op 01 juli 2007 - 00:50

Om iets te simuleren heb je toch al minstens net zoveel rekenkracht nodig als de simulatie zelf kan bevatten? Althans, dat zou ik intuïtief stellen. Dan heeft het bouwen van een 'computer in een computer' weinig zin.

#8

Rogier

    Rogier


  • >5k berichten
  • 5679 berichten
  • VIP

Geplaatst op 01 juli 2007 - 01:28

Om iets te simuleren heb je toch al minstens net zoveel rekenkracht nodig als de simulatie zelf kan bevatten? Althans, dat zou ik intuïtief stellen. Dan heeft het bouwen van een 'computer in een computer' weinig zin.

Niet als de simulatie met efficiëntere algoritmes werkt dan het origineel. Maar dat is dan natuurlijk niet recursief toepasbaar.
In theory, there's no difference between theory and practice. In practice, there is.

#9

High-Voltage

    High-Voltage


  • >250 berichten
  • 384 berichten
  • Ervaren gebruiker

Geplaatst op 01 juli 2007 - 11:33

Om iets te simuleren heb je toch al minstens net zoveel rekenkracht nodig als de simulatie zelf kan bevatten? Althans, dat zou ik intuïtief stellen. Dan heeft het bouwen van een 'computer in een computer' weinig zin.

Gelijk ik het lees wil de TS in eerste instantie een supercomputer bouwen om het heelal te simuleren.

Stel, je hebt de volgende situatie: over 100 jaar kan de mens een supercomputer bouwen met genoeg rekenracht om een volledig heelal te emuleren.

Dat lijkt me helemaal niet onmogelijk, maar daarin dan opnieuw een simulatie draaien vraagt natuurlijk extra rekenkracht van buitenaf, daar ben ik het mee eens.

#10

Kjell

    Kjell


  • >250 berichten
  • 333 berichten
  • Verbannen

Geplaatst op 02 juli 2007 - 11:50

Hallo,
ik las laast een artikel over de theorie dat ons heelal niets anders is dan een emulatie van een supercomputer, en dat heeft me aan het denken gezet.
Stel, je hebt de volgende situatie: over 100 jaar kan de mens een supercomputer bouwen met genoeg rekenracht om een volledig heelal te emuleren.
Mijn vraag is: is dit niet onmogelijk omdat je dan theoretisch met een zo'n computer oneindig veel informatie tegelijkertijd kan verwerken? Ik bedoel op de volgende manier:
"Hoofduniversum" bouwt supercomputer, die Universum "A" simuleert
In A worden 10 supercomputers gebouwd, die 10 universa "B" simuleren.
In B worden 10 supercomputers gebouwd, die 10 universa "C" simuleren.
De in totaal 10^2 = 100 computers hebben allemaal dezelfde rekenkracht als de eerste computer, en zouden een programma dus ook 100 keer zo snel moeten kunnen oplossen.
Maar is dit niet een onmogelijkheid? Omdat je op deze manier dus een oneindige hoeveelheid rekenkracht tot je beschikking zou kunnen hebben met een bepaalde hoeveelheid rekenkracht :S


Je deelt het universum, voor je berekend, en dit zou een gunstig effect hebben op de uitkomst ??
Wie niet slim is moet sterk zijn.





0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures