Die Prozessoren auf Grafikkarten (GPU) haben eine vergleichbare Rechenleistung wie normale Prozessoren erreicht. Ist es möglich rechenintensive Aufgaben auf die Grafikkarte auszulagern?
Die richtige Antwort
Ja, das kann man mit der Framework Compute Unified Device Architecture (CUDA) machen. Moderne Grafikkarten eignen sich insbesondere für hoch parallelisierbare Aufgabe. Die Grafikprozessoren beherrscht aber nur Fließkommaberechnungen mit einfacher Genauigkeit. Deshalb eignen sie sich nicht für alle Anwendungen.
Kurze Antwort: Ja.
Für NVIDIA-Karten gibt es ein SDK zum Programmieren der GPU, wie das für ATI-Karten aussieht, weiß ich nicht.
Ansonsten einfach mal hier schauen:
http://de.wikipedia.org/wiki/CUDA
Aha, das heißt, ich kann alles was man mit einer normalen CPU berechnen kann auch mit einer Grafik-CPU berechnen?
Die Frage geht von falschen Voraussetzungen aus.
Was Floating-Point-Berechnungen angeht, haben GPUs normale CPUs längst abgeledert. Nur mit der Genauigkeit haperts (noch).
Wie in dem Wikipedia-Link schon erwähnt, werden Grafikprozessoren insbesondere für wissenschaftlich-technische Berechnungen eingesetzt. Der Grund liegt in der hohen Parallelisierung der GPUs, wodurch sich gerade die in wissenschaftlichen Berechnungen häufig vorkommenden Vektor- und Matrixberechnungen bzw. Skalarproduktberechnungen (Multiply-Add) besonders effizient durchführen lassen.
Die Frage ist sehr allgemein gestellt. Man kann *alles* auch mit einem 8-Bit-Mikrocontroller berechnen, ist nur eine Frage der Zeit :-).
Aufgrund der Architektur einer GPU eignet sich diese hervorragend für Matrixmanipulationen, bei 3D-Grafik-Berechnungen wird ja auch nichts anderes gemacht.
Anders gesagt: Es gibt Berechnungen, die können von einer GPU effizienter (schneller) als von einer CPU erledigt werden – ich weiß aber nicht, ob dies auf *alle* Berechnungen zutrifft.
.
„ohne Name“ hat geschrieben:
> Die Frage ist sehr allgemein gestellt. Man kann *alles* auch mit einem
> 8-Bit-Mikrocontroller berechnen, ist nur eine Frage der Zeit :-).
Darf ich mit aller mir angeborenen Bescheidenhait erwaehnen, dass die selbe korrekte Aussage auch fuer einen Single-Bit-Mikrocontroller, 1 Bit statt die Riesenmenge von 8 Bit, gilt? 😀
Waaas? Weeer? Wie bitte, wer zischt dort hinten im Eck hier rein? Was hast Du gesagt, ein 1-Bit-Controller gibt es nicht? So! Dann steck doch bitte erst Deine Nase ins Motorola-Datenbuch „CMOS LOGIC DATA“ auf Seite 6-213! Dort steht’s. Es ist der MC14500B.
Das Buch ist uebrigens erst 23 Jahre alt… 😛 😛 😛 😛 😛 😛
Gruss
Thomas 😀 😀 😀
—
Mein ELKO-Buch ueber Opamp und Instumentation-Amplifier:
http://www.elektronik-kompendium.de/public/schaerer/index.htm#my_literatur
http://www.elektronik-kompendium.de/shop/buecher/operationsverstaerker-und-instrumentationsverstaerker
Man kann sogar auf ner Playstation3 ein voll funktionsfähiges Linux ( aka. Yellow Dog) Laufen lassen, also warum soll man GPUs nicht auch für andere Dinge als bloß das Rendern von Bildern einsetzen können??? Was für eine Frage! Man kann Teelöffel nicht nur zum Umrühren von Tee benutzen, sondern auch seinen Puddig damit essen!
http://www.golem.de/0802/57749.html
wie dieser link zeigt, sind GPUs durchaus in der Lage andere aufgaben als das rendern von Bildern auszuführen. Allerdings kann eine GPU nur in einigen bereichen mit CPUs mithalten, in anderen nicht
antworter hat geschrieben:
> Man kann Teelöffel nicht nur zum
> Umrühren von Tee benutzen, sondern auch seinen Puddig damit essen!
AAAaaaaarggghhh!!! Wenn Du das tust, bist Du im Falle eines Earl-Grey ein Earl-Grey-Banause! 😛 😛 😛 😛 😛 😛
Gruss
Thomas 😀 😀 😀
—
Mein ELKO-Buch ueber Opamp und Instumentation-Amplifier:
http://www.elektronik-kompendium.de/public/schaerer/index.htm#my_literatur
http://www.elektronik-kompendium.de/shop/buecher/operationsverstaerker-und-instrumentationsverstaerker
Thomas Schaerer hat geschrieben:
>
> AAAaaaaarggghhh!!! Wenn Du das tust, bist Du im Falle eines Earl-Grey ein
> Earl-Grey-Banause! 😛 😛 😛 😛 😛 😛
Erarl Grey mit 2 Esslöffeln Zucker ist top! Und den Zuckerberg am Grunde des Bechers (0,25l) muss man erst mal gut im Tee lösen, also -> rühren. den Pudding kann man ja danch essen 😉 😀 Ansonsten Earl Greay ohne Milch. Ich weiß nicht wie die Schweizer den Tee, den auch Captain Picard liebt, trinken.
Kann man den Prozessor einer Grafikkarte auch für andere Berechnungen verwenden?
Ja, die ATI Serie kann z.B. sonnvolle, wissenschaftliche Berechnungen durchführen. Und dies überaus schnell. Die PS3 kann das auch.
Bei NVIDIA dauert es noch 6-12 Monate, bis richtige Anwendungen für den Privatanwender oder die Forschung verfügbar sind.
GPU ist die Kurzform von Grafic Processor Unit übersetzt Grafik Prozess Einheit. So wird die Hauptrecheneinheit auf einer aktuellen Grafikkarte bezeichnet, welche auf Grafikoperationen ausgelegt ist und somit sehr speziell ist. Sie ist jedoch bei Grafikoperationen wie zb. Vektorrechnung oder Polygonberechnung schneller als die CPU. Dadurch werden speziell für eine GPU geschriebene Clients interessant. Ein Projekt, das schon solche Clients herausgegeben hat ist Folding@home.
Schaut einfach mal vorbei und macht evtl. mit. Wir würden uns sehr freuen!
Das Team von http://www.rechenkraft.net
> Ich weiß nicht wie die Schweizer den Tee,
> den auch Captain Picard liebt, trinken.
Ich habe durch Picard diesen Supertee kennengelernt und seit ich aus dem 24. Jahrhundert aus dem Deltaquadranten – war ein toller Ausflug – ins finstere Mittelalter des 21.Jahrhunderts zurueckgekehrt bin – o graus! – habe ich diese Tradition beibehalten.
Gruss und ein langes Leben
Spok, aeh Thomas 😛 😛 😛
geht es hier um Tee oder was?
naja so eine GPU ist vür Vektorenberechnungen beispielsweise nicht übel, aber es handelt sich bei der GPU um eine sehr stark abgespekte version von einer normalen CPU. Darher wird di GPU für manche aufgaben mehr Takte benötigen als CPU weil sie nicht direkt „verdrahtet“ sind.
Fatsit: Es ist vielleicht möglich, aber ob es sich wirklich etwas für dich bring musst du entscheiden