500GHz Prozessor

Chip läuft mit 500 Gigahertz

In einem Laborversuch schafften es Forscher von IBM und dem Georgia Institute of Technology, den ersten 500 GHz schnellen Chip auf Silizium-Germanium-Basis herzustellen.

Leider erreicht der SiGe-Halbleiter das Rekordtempo aber erst ab ca. –268,5 Grad Celsius. So niedrige Temperaturen lassen sich auf der Erde nur bei der Kühlung mit flüssigem Helium verwirklichen. Bei normaler Raumtemperatur erreicht der Chip etwa 350 GHz.

Nach diversen Computersimulationen ist man sogar der Meinung, dass die Leistung auf Ein Terahertz (1000 GHz) gesteigert werden könnte.

Quelle : heise.de

Scheiß auf Cell, bei den Taktraten wohl jeder heutigen Multicore-CPU bei weitem überlegen. Leider nur 350GHz bei Raumtemperatur drin :-)/

Was mich wundert ist, das es mit Silizium klappt, denke bei so schnellen Schaltvorgängen braucht man Diamanten o_O

Original von Diablokiller999
Was mich wundert ist, das es mit Silizium klappt, denke bei so schnellen Schaltvorgängen braucht man Diamanten o_O

Der Trick bei den Diamanten ist ja nur, wenn man sie durch dotieren mal leitfähig hat, dass sie einfach temperaturstabiler sind und viele bewegliche Ladungsträger haben.
Was mich jetzt eigentlich mehr wundert ist, dass Silizium und Germanium bei so niedrigen Temperaturen eigentlich kaum mehr stromleitend sind?! :ka:

Ansonsten, ziemlich cool. Würde mich interessieren wie lange sich die Terahertzmarke noch hält.

Da wird mein Bruder aber weinen, vor paar Wochen noch nen 3,8Ghz Dual Core gekauft :wink:

Nee, mal ernsthaft:

Toll wenn das im Labor erreicht wird, aber die Frage ist doch in wie viel Jahren (bis Jahrzehnten) so etwas für den Heimgebrauch erschwinglich wird.

Und da stellt sich die Frage: wer braucht das?

Die Entwicklung von Anwendungen und Games, die das wirklich auslasten würden, wären SEHR umfangreich.

Original von RazeLaserbolt
Und da stellt sich die Frage: wer braucht das?

Die Entwicklung von Anwendungen und Games, die das wirklich auslasten würden, wären SEHR umfangreich.

da stimmt ich dir zu!

schon allein Preislich gar nicht dran zu denken…

ausserdem was man da noch alles zusätzlich brauchen würde… oh gott das Liebe Geld :smiley:

wahrscheinlich werden solch Prozesse für die next next next Konsolen verwendet oder wohl eher mal wieder für die Wissenschaft und Raumfahrt.

die erste Rakete ist mittechnik unter einem NES geflogen, ob die 350GHZ überhaupt brauchen ?

Original von RazeLaserbolt
Nee, mal ernsthaft:

Toll wenn das im Labor erreicht wird, aber die Frage ist doch in wie viel Jahren (bis Jahrzehnten) so etwas für den Heimgebrauch erschwinglich wird.

Und da stellt sich die Frage: wer braucht das?

Die Entwicklung von Anwendungen und Games, die das wirklich auslasten würden, wären SEHR umfangreich.

Äm… ich muss da mal an die ersten PC’s erinnern…
Da hats geheissen: „Was? 2MB Speicher? wer braucht schon solche Unmengen!!“
oder: „8MHz, das reicht doch eeewig!“

Und zur Frage, wer das braucht: Gibt’s erst mal die Hardware, kommt auch bald die Software dazu…

Original von terri
die erste Rakete ist mittechnik unter einem NES geflogen, ob die 350GHZ überhaupt brauchen ?

löl die brauchen alles oder wojl eher die Militäreinheiten der USA :smiley:

Original von H-BomB
Äm… ich muss da mal an die ersten PC’s erinnern…
Da hats geheissen: „Was? 2MB Speicher? wer braucht schon solche Unmengen!!“
oder: „8MHz, das reicht doch eeewig!“

Und zur Frage, wer das braucht: Gibt’s erst mal die Hardware, kommt auch bald die Software dazu…

Jo aber in der Zeit wurden Spiele und Programme in Wochen oder Monaten von Idee bis Abschluß gebastelt, heute sind es ja meist schon mehrere Jahre. Der Arbeitsaufwand wird da unverhältnismäßig stark wachsen, was einfach wirtschaftlich nicht tragbar ist.

Ich meine, seht euch mal an wie schwer es sich Microsoft tut Windows heutzutage aktuell zu halten, wie soll das er funzen wenn man mindestens 100GHz für den Windows Desktop und 300GHz für Solitär braucht :bg:

Aber mal im ernst, das braucht wirklich niemand, selbst Zocker nicht. Wer soll das denn programmieren - ein 10.000 Mann Team in 5-10Jahren damit die Hardware ausgereizt ist? Mit wenigen Designern kriegt man auch schöne Autos hin

Kommt Zeit, kommt Terraherz ^^

Gewiss, es wird noch eine weile Dauern bis sowas verfügbarist / benötigt wird… aber die Zeit WIRD kommen :wink:

gibt ja noch mehr als die ausgabe am bildschirm…

Seit ihr euch sicher das man sowas braucht? Also ich weiß nicht so recht, aber man kriegt heute schon annähernd reale Grafiken hin, ob man da wirklich 346 GHZ mehr braucht um den „letzten“ Schliff zu verpassen?

Original von Kane
Seit ihr euch sicher das man sowas braucht? Also ich weiß nicht so recht, aber man kriegt heute schon annähernd reale Grafiken hin, ob man da wirklich 346 GHZ mehr braucht um den „letzten“ Schliff zu verpassen?

Die Zeit entwickelt sich halt weiter.Was meisnt du was in den 90er ein Aufschrei war,als von 16 Bit auf 32Bit umgestellt wurde. ( Braucht kein Mensch,wird nur unnötig Bund alles,kostet nur Rechenleistung…usw. )

Oder der erste GByte Rechner. Das war ja wie die Offenbarung.Heute redet keiner mehr über diese Leistung.

Original von Kane
Seit ihr euch sicher das man sowas braucht? Also ich weiß nicht so recht, aber man kriegt heute schon annähernd reale Grafiken hin, ob man da wirklich 346 GHZ mehr braucht um den „letzten“ Schliff zu verpassen?

ihr vergleicht zumeist geschwindigkeit mit graphik. das ist vollkommen falsch. stellt euch doch mal vor… wenn ihr mehr speed an purer rechenleistung hättet… (und natürlich alle anderen komponenten keine flaschenhälse sind)

kein ruckeln mehr unter win 95 :wink:

scherz beiseite… den rechner dann letztendlcih nicht nur als rechner sondern als elektrische zentrale im haus nutzen. so dass der kühlschrank schon die einkäufe automaitsch tätigt und oder was für ein schach spiel würde dies ergeben :smiley: WOW

künstliche intelligenz, die mehr alternativen zeitgleich durch rechnen kann, wären dadurch auch möglich. Autorouting in autos… das betriebssystem, hätte eine intelligente leistungsvergabe.. mp3 ist schnee von gestern.. full hd wird in weniger als echtzeit gerendert und auf einer hd oder blue ray disc gebrannt.

mehr leistung ist immer gut. für das normale sürfen und office betrieben braucht man es sicherlich nicht. aber… jetzt hörst du nebenbei musik, schaust ein full hd fussball spiel auf dem zweiten monitor an und nimmst den auch noch auf, dazu hast du noch webcam telefonate mit ungefähr 10 leuten zeitgleich, die alle das spiel mit ansehen und dazu noch wird das spiel per neuem wlan system an die anderen fernseher im haus gesendet… etc etc..

in der medizin wird es extrem praktisch.. mit sicherheit. bau technik, physik, chemie.. dann kann man vom mehr speed immer profitieren.. also die industrie wird es gerne nehmen. und die medien industrie auch. wenn ich sehe.. wie ‚lange‘ es bei mir dauert, bis mein system mit idvd fertig gerendert hat (6 stunden) und ein track bounced (3-5 minuten) dann ist man über mehr speed immer glücklicher.
ach ja.. ich hab ein powermac mit 2x 2,5 echte prozessoren (kein core duo oder sowas, aber mit mehr ram wird auch mehr speed rausgeholt)

ich fraue mich auch auf dem moment, wenn endlich der ram speicherpreis runter geht… so dass man 32 gb flashspeicher hat..der den festplatten ersatz gleicht. weil dann sparrt man strom, hitze entwicklung geringer, und speed ist um ein vielfaches schneller als eine festlpatte.

Original von H-BomB
gibt ja noch mehr als die ausgabe am bildschirm…

Ich zitier mich ja echt nicht gerne selber aber bei Kanes Post musste ich mir echt an den Kopf langen.

Zudem muss ich 3-CXT zustimmen!

hab ein bisschen bedenken das es mit Technik/Künstlicher Intelligenz zu schnell geht..ich will jetzt nicht auf böser Bube machen aber wenn wir Menschen noch abhängiger werden von Elektronik, Maschinen usw. dann könnte das auch unser Ende bedeuten…

Original von FallenDevil
hab ein bisschen bedenken das es mit Technik/Künstlicher Intelligenz zu schnell geht..ich will jetzt nicht auf böser Bube machen aber wenn wir Menschen noch abhängiger werden von Elektronik, Maschinen usw. dann könnte das auch unser Ende bedeuten…

Ich bin KI Experte. Die Computer haben nicht mal die Intelligenz einer Stubenfliege … Selbst 1000 Fache Leistung ändern das nicht. Das wir von der Technik abhängiger werden ist allerdings bedenklich, aber da muss jeder seine eigene Entscheidung treffen.

Clive

Original von babyfaceclive

[quote]Original von FallenDevil
hab ein bisschen bedenken das es mit Technik/Künstlicher Intelligenz zu schnell geht..ich will jetzt nicht auf böser Bube machen aber wenn wir Menschen noch abhängiger werden von Elektronik, Maschinen usw. dann könnte das auch unser Ende bedeuten…

Ich bin KI Experte. Die Computer haben nicht mal die Intelligenz einer Stubenfliege … Selbst 1000 Fache Leistung ändern das nicht. Das wir von der Technik abhängiger werden ist allerdings bedenklich, aber da muss jeder seine eigene Entscheidung treffen.

Clive[/quote]

Wo besteht da eigentlich das Problem?
Denke mal was die Geschwindigkeit einer Überlegung und Handlung angeht sind Computer weitaus schneller als der Mensch, liegt es also eher an der fehlenden Fähigkeit zu lernen?

Um mal eine Aussage von Sony zu nennen, der CELL-Chip soll doch in Relation zum Hirn stehen, irgendwie 1/8 so leistungsfähig hieß es XD

Original von Diablokiller999
Wo besteht da eigentlich das Problem?
Denke mal was die Geschwindigkeit einer Überlegung und Handlung angeht sind Computer weitaus schneller als der Mensch, liegt es also eher an der fehlenden Fähigkeit zu lernen?

Um mal eine Aussage von Sony zu nennen, der CELL-Chip soll doch in Relation zum Hirn stehen, irgendwie 1/8 so leistungsfähig hieß es XD

Da hast im Grunde den Punkt getroffen. Also die mangelnde Fähigkeit zu lernen. Wobei an dieser Stelle erwähnt werden sollte, daß es verschiedene Auffassungen von Intelligenz gibt. Allles was passieren könnte, muss vorher vom Programmierer schon mal mit einbezogen worden sein. Bildlich gesehen ist der Computer ein Zug der auf Schienen fährt, aber wirklich auch nur da wo Schienen gesetzt sind. Man sagt auch Maschine dazu. Den anderen Schritt in eine Richtung ist die Intuition, die hat nen Computer nicht. Diese Sichtweise ist aber umstritten und wird nicht von allen KI’lern so empfunden.

Clive

Original von babyfaceclive

[quote]Original von Diablokiller999
Wo besteht da eigentlich das Problem?
Denke mal was die Geschwindigkeit einer Überlegung und Handlung angeht sind Computer weitaus schneller als der Mensch, liegt es also eher an der fehlenden Fähigkeit zu lernen?

Um mal eine Aussage von Sony zu nennen, der CELL-Chip soll doch in Relation zum Hirn stehen, irgendwie 1/8 so leistungsfähig hieß es XD

Da hast im Grunde den Punkt getroffen. Also die mangelnde Fähigkeit zu lernen. Wobei an dieser Stelle erwähnt werden sollte, daß es verschiedene Auffassungen von Intelligenz gibt. Allles was passieren könnte, muss vorher vom Programmierer schon mal mit einbezogen worden sein. Bildlich gesehen ist der Computer ein Zug der auf Schienen fährt, aber wirklich auch nur da wo Schienen gesetzt sind. Man sagt auch Maschine dazu. Den anderen Schritt in eine Richtung ist die Intuition, die hat nen Computer nicht. Diese Sichtweise ist aber umstritten und wird nicht von allen KI’lern so empfunden.

Clive[/quote]

Also ist die KI letztendlich nur eine Frage des Programmierens?
Was wäre wenn Programmierer dem Programm beibringen selbst zu programmieren, also ein programmierendes Programm das auf äußere Reize (Kamera?) neue Funktionen schreibt…etwas schwer zu verwirklichen aber machbar wäre es schon wie ich mir das so vorstelle, meine C-Kenntnisse reichen da aber bei weitem nicht aus:bg:

Original von Diablokiller999
Also ist die KI letztendlich nur eine Frage des Programmierens?
Was wäre wenn Programmierer dem Programm beibringen selbst zu programmieren, also ein programmierendes Programm das auf äußere Reize (Kamera?) neue Funktionen schreibt…etwas schwer zu verwirklichen aber machbar wäre es schon wie ich mir das so vorstelle, meine C-Kenntnisse reichen da aber bei weitem nicht aus:bg:

Na wenn so was gäbe, dann wäre ich wohl arbeitslos …

Nimm mal nen einfachen Satz den man so aufschreibt. Man hat 26 Buchstaben und dann besteht der Satz aus 40 Buchstaben. Möglich sind dann 26 Hoch 40 Sätze die man bilden kann. Das macht 3,9 mit 56 Nullen Möglichkeiten. Aus diesem Wust muss man jetzt die Sätze finden, die einen Sinn ergeben… Alles eine Frage der Programmierung … :wink:

Clive