Waarom wordt pi zover decimaal bepaald?

Moderator: Rhiannon

Reageer
Berichten: 242

Waarom wordt pi zover decimaal bepaald?

Omdat dit in principe op meerdere disciplines kan slaan post ik dit in het WSF Café.
Ik vraag me al een tijdje af waarom pi tot zoveel decimalen bepaald is. Ik  ben eens gaan kijken wat ‘verschillende’ pi’s van programma’s zijn.
 
Als pi niet op de rekenmachine staat gebruik ik           3,14
Excel geeft pi als                                                      3,14159265358979
De calculator van Windows geeft pi als                       3,1415926535897932384626433832795
Even op internet surfen geeft pi al snel tot 100 miljoen decimalen.
Het record (wat ik nu kan vinden) is 5 biljoen decimalen.
 
Waarom zijn er mensen/computers die de decimalen van pi uitrekenen? Ik snap dat het verschil tussen 3 en 3,14 best van belang is maar waarom gaan we door tot zo ver achter de komma?
Voor welke probleemstukken is het van belang om pi tot de 341.634.791ste decimaal nauwkeurig te weten? (dit is uiteraard slechts een voorbeeld, ik bedoel niet letterlijk tot 341.634.791ste decimaal). Of is het puur een ‘kijk eens tot hoever we pi hebben bepaald’ paradepaardje?
HBO Elektrotechniek student 3de jaar

Gebruikersavatar
Pluimdrager
Berichten: 7.933

Re: Waarom wordt pi zover decimaal bepaald?

Volgens mij gaat het puur om de wiskundige uitdaging. Het is al bewezen dat het aantal decimalen oneindig is, dus voorlopig kunnen  ze nog even vooruit.
Voor praktische toepassingen denk ik dat 10 decimalen wel genoeg is.

Gebruikersavatar
Pluimdrager
Berichten: 3.505

Re: Waarom wordt pi zover decimaal bepaald?

Het gaat bij berekeningen via de computer ook niet zo zeer om het aantal te vinden decimalen, maar om de snelheid van een dergelijke berekening te testen. Ik ken π en e allebei in 5 decimalen nauwkeurig en daar heb ik voldoende aan.
"Mathematics is a gigantic intellectual construction, very difficult, if not impossible, to view in its entirety." Armand Borel

Gebruikersavatar
Berichten: 5.609

Re: Waarom wordt pi zover decimaal bepaald?

luc schreef: Of is het puur een ‘kijk eens tot hoever we pi hebben bepaald’ paradepaardje?
Het is ook een (soort van) standaardmanier geworden om computer-hardware te testen. Dit omdat enerzijds er goede formules bestaan om pi te berekenen, en dat er goede formules bestaan om het resultaat onafhankelijk te controleren. Men kan een willekeurige decimaal uit het resultaat nemen, en het met deze formule narekenen zonder de volledige berekening te moeten over doen: http://en.wikipedia.org/wiki/Bailey%E2%80%93Borwein%E2%80%93Plouffe_formula
Dus als je wil bewijzen dat je hardware geen rekenfouten maakt, dan kun je dat op die manier doen. Laat je supercomputer gewoon een aantal extra decimalen uitrekenen die de hele wereld gemakkelijk kan controleren.
 
 
Een tweede reden is dat het berekenen van decimalen van pi al heel lang bezig is (misschien zelfs langer dan het schrift!), en dat het een goede graadmeter is voor hoe ver de mensheid wiskundig gezien staat. Je plaatst jezelf in een erg lange geschiedenis met een nieuw record, ook al zijn die al sinds de middeleeuwen irrelevant geworden voor praktische toepassingen.
 
Vroeger heb ik ooit nog pi tot op 200 decimalen gekend, dat was voor mij een methode om mijn geheugen te oefenen. En ik heb nog een programma geschreven (op de Ti-83+) dat pi tot op een theoretische 6986 decimalen nauwkeurig kon berekenen, wat voor mij een interessant programmeerprobleem was om te tackelen. Verder dan de eerste 1000 is hij echter nooit gegaan, dat duurde een paar dagen.
 
Pi heeft gewoon een erg lange geschiedenis, misschien zelfs langer dan het schrift. En toch blijft het nog altijd relevant vandaag (zie bijvoorbeeld het Riemann-zeta probleem, het belangrijkste wiskunde-probleem op het moment: http://en.wikipedia.org/wiki/Riemann_zeta-hypothesis )
What it all comes down to, is that I haven't got it all figured out just yet

And I've got one hand in my pocket and the other one is giving the peace sign

-Alanis Morisette-

Reageer