Neuer Macbook im Mai / Juni

Status
Für weitere Antworten geschlossen.
Tesla ist ein ziemlich massiv schnelles Ding, wenn die Anwendungen die man dafür schreibt passen.

Wir basteln an der Uni derzeit an einem kleinen Tesla-Cluster für bestimmte Anwendungen und sind mit der Leistung die es bringt mehr als zufrieden! Als nächstes wird dann der Intel Larrabee getestet!

Aber ich sehe auch die allgemeine Entwicklung zu mehr Cores, aber die Anwendungen müssen oftmals erst dafür angepasst werden, aber das wird die Zeit schon bringen! Das große Problem der Multicores ist noch immer die effiziente Cache-Verwaltung.
 
Oh man, langsam wird es echt peinlich für Apple.

Die letzten Keynotes gingen fast alle um das iPhone.

Auf der WWDC hieß es doch, Apple wäre ein Dreibeiniger Stuhl. Warum wird dann immer mehr am Mac-Bein gesägt?

Mittlerweile ist man mit Updates so hintendran, dass Apple eigentlich ein Event machen müsste, welches sich nur um Mac Updates kümmert.
 
da ist leider falsch, amd oder intel, nvidia hat kein cpu-endwicklung für desktops und notebooks. sie haben nur gpu und die ist dreck unter osx. für neues macbook pro würde ich mir die 3600serie wünschen

nvidia hat angst, dass sie überflüssig werden, wenn die cpu und gpu zusammen kommt. das ist noch sehr sehr weit gedacht, amd können sie nicht aufkaufen, deshlab versuchen sie in nebenschauplätzen irgendwelche standards aufzubauen

NOpe. Die GPU soll das richten. Ich habs schon richtig geschrieben.

NVidia will über plugins rechenintensive Aufgaben auf die GPU auslagern.
z.B. Video Transcoding oder MP3 Codierung oder die Berechnung physikalischen Verhaltens.

Kammst Du auch in der aktuellen c't nachlesen.:)
 
NOpe. Die GPU soll das richten. Ich habs schon richtig geschrieben.

NVidia will über plugins rechenintensive Aufgaben auf die GPU auslagern.
z.B. Video Transcoding oder MP3 Codierung oder die Berechnung physikalischen Verhaltens.

Kammst Du auch in der aktuellen c't nachlesen.:)

wir werden sehen was die zukunft bringt, wenn sich amd endlich berappelt, dann werden sie sehr stark, da sie bessere gpus als intel haben. sie bieten nvidia gute parolli im 3dbereich. sie müssen endlich ihre notebook cpus besser endwickeln, schein mit puma nicht schlecht zu sein :)

dann kann ich mir vorstellen, das eines tages auch apple amd verbaut, wie dell :)
 
Für was denn ein Blueray Laufwerk? :confused:

HD Screen gibts schon beim MBP 17".

HD-iSight halte ich persönlich für unnötig.


:confused: also Blu-Ray ist sehr wahrscheinlich der Nachfolger von DVD. Warum soll ich mir also etwas holen, was langsam abgelöst wird? Warum nicht gleich auf die neue Generation zugreifen? So ein Notebok soll schon ein paar Jahre halten, da sollte es technisch gesehen, schon auf dem möglichst aktuellen stands sein!

Ich meinte übrigens FULL HD, sowohl für Bildschirm, als auch für iSight.
 
:confused: also Blu-Ray ist sehr wahrscheinlich der Nachfolger von DVD. Warum soll ich mir also etwas holen, was langsam abgelöst wird? Warum nicht gleich auf die neue Generation zugreifen? So ein Notebok soll schon ein paar Jahre halten, da sollte es technisch gesehen, schon auf dem möglichst aktuellen stands sein!

Könnte aber genausogut ne Totgeburt werden, an Apples stelle würd ich da eher was externes Anbieten
 
wenn sich amd endlich berappelt, dann werden sie sehr stark, da sie bessere gpus als intel haben.
Sehr geehrter Herr, würden Sie das eventuell belegen/begründen? :confused:
nvidia hat angst, dass sie überflüssig werden, wenn die cpu und gpu zusammen kommt. das ist noch sehr sehr weit gedacht, amd können sie nicht aufkaufen, deshlab versuchen sie in nebenschauplätzen irgendwelche standards aufzubauen
"Nebenschauplatz"? Für Apple zumindest ist es wohl einer der zukünftigen Hauptschauplätze (!) im nächsten Mac OS X.

Mit freundlichen Grüssen,

tufkap
 
Zuletzt bearbeitet:
Sehr geehrter Herr, würden Sie das eventuell belegen/begründen? :confused:
"Nebenschauplatz"? Für Apple zumindest ist es wohl einer der zukünftigen Hauptschauplätze (!) im nächsten Mac OS X.

Mit freundlichen Grüssen,

tufkap

richtig lesen, es geht um nvidia nicht um apple
 
richtig lesen, es geht um nvidia nicht um apple
Sehr geehrter Herr,

ich habe schon richtig gelesen und verstanden.

Nvidia setzt darauf.
Apple ebenfalls.
Intel mutmasslich auch.

Es handelt sich hier keinesfalls um einen Nebenschauplatz, egal für wen in der Industrie.

Mit freundlichen Grüssen,

tufkap
 
Sehr geehrter Herr,

ich habe schon richtig gelesen und verstanden.

Nvidia setzt darauf.
Apple setzt ebenfalls darauf.
Intel möglicherweise auch.

Es handelt sich hier keinesfalls um einen Nebenschauplatz, egal für wen in der Industrie.

Mit freundlichen Grüssen,

tufkap

Noch hat keiner fast draufgesetzt, und auf was setzt apple und intel, wenn ich fragen darf? :)
 
Doch, sicher. In der Entwicklung. Die Produkte kommen schon noch marktreif.
Intel hardwareseitig auf Larrabee, Apple softwareseitig auf OpenCL.

Mit freundlichen Grüssen,

tufkap

aha und wo ist opencl und larrabee nvidia standard? deshlab bitte lesen es ging um nvidia und um ihre eigene entwicklungen
 
aha und wo ist opencl und larabee nvidia standard?
Es ist kein Standard.
Habe ich aber auch nicht behauptet.
Und auch sonst niemand hier, glaube ich.
deshlab bitte lesen es ging um nvidia und um ihre eigene entwicklungen
Ja, sicher.
Nvidia entwickelt ja ähnliches (CUDA)

Der Trend in der Industrie geht offensichtlich deutlich hin zu einer Auslagerung traditionell von CPUs durchgeführter Berechnungen auf traditionelle Grafikkarten - die dann im Wortsinne nicht mehr nur "Grafikkarten" sind. Das ist kein Nebenkriegsschauplatz. Und - ohne dass ich hier behaupte, mich selbst näher auszukennen - nicht wenige Beobachter sehen Nvidia hier in der Entwicklung weit vorne dabei. Vor AMD und Intel.

Mit freundlichen Grüssen,

tufkap
 
Zuletzt bearbeitet:
Sehr geehrter Herr,

aufgrund Ihrer sonstigen Beiträge denke ich, dass Sie in der Lage sein sollten, den intendierten Inhalt des Satzes zu verstehen. Nichtsdestotrotz werde ich ihn natürlich sofort korrigieren.

Mit herzlichen Grüssen,

tufkap
 
Gibs auf tufkap, Trixter ists scheinbar nicht gewohnt auch mal NICHT recht zu haben
 
Gibs auf tufkap, Trixter ists scheinbar nicht gewohnt auch mal NICHT recht zu haben

es geht nicht um recht, sondern dass nvidia keine eigene cpu-entwicklung hat, versuchen sie in standards wie cuda zu inverstieren, weil sie wissen, dass sie gegenüber amd (eigene grafikkarten und cpus) intel (dito), das nachsehen haben werden
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten