Springen naar inhoud

Cpu ontwikkeling tot stand gekomen?


  • Log in om te kunnen reageren

#1

aaargh

    aaargh


  • >1k berichten
  • 1279 berichten
  • Ervaren gebruiker

Geplaatst op 14 mei 2007 - 16:38

IK heb nu met mn vriend een best wel onvriendelijke discussie over het feit dat de CPU in computers ontwikkeling tot stilstand is gekomen. Ik zeg dat de laatste 7 jaar de evolutie van de CPU's quasi tot stilstand is gekomen. De performantie is maar een paar keer verdubbeld, terwijl we een pijlsnelle evolutie zagen van 1993 tot 2000.
Hij zegt dat de toekomst ligt in het meer steken van cores in een CPU, terwijl ik vind dat we een nieuwe technologie moeten uitvinden (licht i.p.v. elektronen ofzo, weet ik veel).
Wat vinden jullie?
Is de CPU-ontwikkeling aan het stilvallen en moet er een nieuwe technologie komen willen we de wet van Moore kunnnen doortrekken na 2015, of is er nog veel toekomst in het vermeerderen van het aantal cores in CPU's (vergeet neit dat we in 2015 dan CPU's hebben ter groote van een schoendoos).

Ik zoek argumenten of bewijzen om hem te kunnen overtuigen naar mijn kant te komen want hij doet vreselijk irritant de laatste tijd.

Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.

#2

qrnlk

    qrnlk


  • >5k berichten
  • 5079 berichten
  • Lorentziaan

Geplaatst op 14 mei 2007 - 17:05

Meer cores worden inderdaad de enige manier om verder te gaan.

Dit vereist echter andere programmeertalen, andere compilers, andere besturingssystemen als je hier efficient mee om wilt gaan (zowel in programmeer tijd als uitvoer tijd). De computer is dan namelijk geen Von Neumann machine meer en de meeste programmeertalen (zoals C) en besturingssystemen (zoals unix) zijn specifiek ontwikkeld voor deze architectuur. Via kunst grepen kan het werken op multicore systemen maar er zijn grenzen aan deze optie.

In het algemeen: In een multicore systeem kun je beter een multiparadigma-taal gebruiken dan een strikt imperative taal. Ik verwacht dus dat de "ontwikkeling" in de ICT zich nu eerst weer eens op de software zal richten.
Any sufficiently analyzed magic is indistinguishable from science.
Any sufficiently advanced technology is indistinguishable from magic.

There is no theory of protecting content other than keeping secrets Ė Steve Jobs

#3

Bart

    Bart


  • >5k berichten
  • 7224 berichten
  • VIP

Geplaatst op 14 mei 2007 - 17:10

De CPU ontwikkeling is zeker niet stil gevallen, maar heeft zijn prioriteiten ergens anders gelegd. In plaats van steeds snellere CPU's te maken is men bezig om energiezuinige CPU's te maken met dezelfde performance. Warmte-ontwikkeling binnen CPU's is op dit moment namelijk 1 van de grenzen die men tegenkomt. Verder kunnen laptops langer op een accu draaien omdat de CPU's minder energie vragen.
If I have seen further it is by standing on the shoulders of giants.-- Isaac Newton

#4

Assassinator

    Assassinator


  • >1k berichten
  • 4546 berichten
  • Ervaren gebruiker

Geplaatst op 14 mei 2007 - 20:00

Great Scott! Intel builds the fastest microprocessor ever, a chip that houses 80 cores! This chip, the size of a fingernail, has the capability to process one trillion calculations per second. Only a couple hundred of these chips would be required to match the computing power of the world's fastest super computer which houses 131,072 processors, IBM's BlueGene/L.

But don't get too excited just yet. You won't be able to get your grubby little hands on these puppies just yet; Intel estimates that they will be commercially available in around five years.

Even if you were to somehow get these chips working in your computer, they wouldn't be of much use as the majority of the hardware out there right now doesn't even support two cores on a single die. However, by the time these ship, that should change.

[ Read ]

En op die manier kan het wel een tijdje doorgaan, de CPU gewoon steeds kleiner en kleiner maken en dan kunnen er vanzelfsprekend steeds meer op 1 chip.

Veranderd door Assassinator, 14 mei 2007 - 20:01

'The universe has a way of not caring about what you believe.'

- Robert Heinlein -

#5


  • Gast

Geplaatst op 14 mei 2007 - 21:00

http://en.wikipedia.org/wiki/Moore's_law#Future_trends

#6


  • Gast

Geplaatst op 19 mei 2007 - 17:04

Als ik me even beperk tot een PC dan is de snelheid van de CPU niet de beperkende factor.
Het zijn de randapparatuur die de snelheid limiteren.

De extra snelheid van de CPU wordt vooral gebruikt om de inefficientie van de programmatuur
op te vangen.

#7

Assassinator

    Assassinator


  • >1k berichten
  • 4546 berichten
  • Ervaren gebruiker

Geplaatst op 19 mei 2007 - 18:01

Klopt, kijkt maar eens naar dual cores. Die zijn al lang niet nieuw meer, maar als je naar games kijkt zijn er amper die gebruik maken van multi-threading en dus echt efficiŽnt gebruik maken van de dual core. Dat gaat kennelijk een stuk trager dan de ontwikkeling van de hardware.
'The universe has a way of not caring about what you believe.'

- Robert Heinlein -

#8

High-Voltage

    High-Voltage


  • >250 berichten
  • 384 berichten
  • Ervaren gebruiker

Geplaatst op 19 mei 2007 - 21:32

De CPU ontwikkeling is zeker niet stil gevallen, maar heeft zijn prioriteiten ergens anders gelegd. In plaats van steeds snellere CPU's te maken is men bezig om energiezuinige CPU's te maken met dezelfde performance. Warmte-ontwikkeling binnen CPU's is op dit moment namelijk 1 van de grenzen die men tegenkomt. Verder kunnen laptops langer op een accu draaien omdat de CPU's minder energie vragen.

Dat is 1, maar 2: Als je nog sneller gaat gaan, krijg je problemen met de looptijden van de signalen.
Daarom wil men naar een betere verwerking van de instructies. Vroeger (tot enkele jaren terug) was de CPU frequentie een referentie voor zijn prestaties. Tegenwoordig geldt dit helemaal niet meer, kijk maar eens naar de nieuwe Core 2 van intel die op half de snelheid draait van zijn voorlopers (de D reeks), maar wel veel betere prestaties neerzet. Men gaat echt de instructieverwerking (de hoeveelheid MIP's) najagen door efficiŽntere verwerking en niet door de kloksnelheid op te draaien. Gevolg hiervan is dat de klokfrequentie niet meer stijgt en het lijkt of de hele ontwikkeling stil staat.

#9

MaSma

    MaSma


  • >25 berichten
  • 34 berichten
  • Gebruiker

Geplaatst op 20 mei 2007 - 14:51

Ik denk dat de PC's de laatste jaren zich voornamelijk hebben ontwikkeld op het grafische gebied.
Ook moet je kijken naar verschillende mogelijkheden die je toegekend krijgt over het internet. Zoals bv. alles around Google.

Nee, de PC's gaan de komende jaren nog een goede tijd te gemoed.
Faith does not give you the answers, it just stops you asking the questions. - Frater Ravus

#10

Phys

    Phys


  • >5k berichten
  • 7556 berichten
  • VIP

Geplaatst op 21 mei 2007 - 12:51

Ook moet je kijken naar verschillende mogelijkheden die je toegekend krijgt over het internet. Zoals bv. alles around Google.

Wat heeft dit te maken met de CPU-ontwikkeling?
Never express yourself more clearly than you think.
- Niels Bohr -

#11

Gralgrathor

    Gralgrathor


  • >25 berichten
  • 88 berichten
  • Ervaren gebruiker

Geplaatst op 21 mei 2007 - 20:00

Wat heeft dit te maken met de CPU-ontwikkeling?

Ik denk dat hij doelt op 'distributed processing'?
Man, I hate people.

#12

DePurpereWolf

    DePurpereWolf


  • >5k berichten
  • 9240 berichten
  • VIP

Geplaatst op 23 mei 2007 - 14:27

onderzoek eens de 'wet van moore'.

De rekenkracht van de processor (per oppervlakte) is niet meer aan het groeien omdat het steeds moeilijker word om de transistors kleiner en kleiner te maken.

Dat was de enigste reden van groei in de laatste 30 jaar, per generatie heeft men gewoon meer transistors op het zelfde oppervlak gezet. Hoe kleiner de gate van de transistor, hoe sneller. Echter, een keer houd het op, en nu bij de 56nm node word het steeds moeilijker, ze verkleinen nog wel de gate, (90, 56, 45, 30nm) maar kunnen niet meer de hoeveelheid transitors per oppervlak verdubbelen.

De industrie is echter verre van dood, en men ontwikkeld nog steeds betere processoren, door middel van hyperthreading, en meerdere cores, 64bit, 128bit etc. etc. het word echter steeds meer een ontwerp verhaal dan een fabricage proces verhaal.

Als je nu een high end pc koopt (intel core2duo bv) dan is die echt rete sneller dan die Pentrium4 3200 die je 3 jaren geleden hebt gekocht.

tel daar bij op de ontwikkeling in grafische kaarten, ddr, ddr2, ddr3, de frontbus die boven de 1GHz uitkomt hardeschijven van +10krpm etc. etc.

#13

High-Voltage

    High-Voltage


  • >250 berichten
  • 384 berichten
  • Ervaren gebruiker

Geplaatst op 23 mei 2007 - 18:53

56nm ?
De huidige standaard is 65 nm pi.gif
De opvolger van de 45 nm is waarschijnlijk de 32nm en niet de 30nm.

Intel heeft ondertussen de 45nm chips al gebakken, ze zijn echter nog niet commercieel.

#14

jhnbk

    jhnbk


  • >5k berichten
  • 6905 berichten
  • VIP

Geplaatst op 24 mei 2007 - 18:07

http://tweakers.net/...echnologie.html over de 32nm technologie
Het vel van de beer kunnen verkopen vraagt moeite tenzij deze dood voor je neervalt. Die kans is echter klein dus moeten we zelf moeite doen.

#15

Cycloon

    Cycloon


  • >1k berichten
  • 4810 berichten
  • VIP

Geplaatst op 24 mei 2007 - 18:24

De industrie is echter verre van dood, en men ontwikkeld nog steeds betere processoren, door middel van hyperthreading, en meerdere cores, 64bit, 128bit etc. etc.


64 bit zal het zowat zijn. Niemand staat te springen om door te ontwikkelen naar 128 bit. Het probleem is dat je voor elke bit een kanaal moet hebben om deze over te brengen van het ram geheugen naar de processor. De elektrische baantjes die daar voor gebruikt worden zijn momenteel zowat het kleinste dat je kan behalen. Wil je dus van 64 naar 128 dan moet je dubbel zoveel plaats hebben om naar je cpu te leiden, en die is er simpelweg niet. Laat staan dat men ooit voorbij de 128 bit zou geraken. En het aantal bits maakt een processor niet sneller, het is alleen een 'fix' om de traagheid van het ramgeheugen weg te werken, want er kan helemaal niet zo snel uit het ram geheugen gelezen worden als data die kan verwerkt worden door de CPU.

De enige manier om computers nog sneller te maken in de toekomst is door 'out of the box' te gaan denken en een nieuw ontwerp voor te schotelen die mss zelf niet meer met een 2-tallig stelsel werkt, maar met een 4-tallig stelsel bv waardoor je plots meer data kan doorsluizen op hetzelfde aantal banen.

Naar mijn mening is de inovatie ver te vinden in de elektronica wereld en blijft men net iets te sterk hangen aan de huidige ontwerpen van de hardware. Hopelijk duikt er binnenkort eens een einstein op in de elektronica die met 1 of ander briljant idee komt opzetten, want de put die we nu aan het uitgraven zijn komt bijna aan z'n eind.





0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures