Beinahe als wäre es ne schlechte Idee die Dinger einfach immer mehr Strom verbrauchen zu lassen. Leider hat Nvidia nicht den geringsten Ansporn wirklich innovativ zu sein, da AMD es schlicht aufgegeben hat High End Karten zu bauen
Leider hat Nvidia nicht den geringsten Ansporn wirklich innovativ zu sein
Was hieße für dich “wirklich innovativ”? Ich höre viel von “weniger raytracing weniger KI shrott”, aber beim rasterizing tut sich halt nicht mehr viel. AMD baut durchaus schnelle Karten. “High end” ist aber gleichbedeutend mit “macht schnelles raytracing” “macht schnell KI shit”. Wo wäre denn die Innovation hier?
Was weiß denn ich? Woher soll ich wissen was der nächste Schritt bei GPUs ist? DLSS und Konsorten sind ja durchaus ein guter Ansatz, aber Raytracing ist bisher halt nicht angekommen und einfach nur die nächste Generation mit mehr Strom zu machen ist nicht was ich unter Innovation verstehe
Erinnert irgendwie an die Autoindustrie in Deutschland. Naja, das ist ja auch immer super gelaufen und wird es auch noch lange!
der8auer dazu
High-End Karten sind schon ne Weile nicht mehr für Consumer wie Gamer gedacht bzw zumindest nicht mehr sinnvoll. Für Gaming auf maximalen Settings reicht auch eine lower end Karte oder eine paar Jahre alte. Die Dinger sind nur noch für den professionellen Einsatz oder Einsatz mit LLM oder Blockchain zu gebrauchen. Außer man hat zu viel Geld.
Heute davon gehört. Wie behindert muss man als Hersteller sein? Es ist, als hätten sie die Dinger nicht mal 5 Minuten selbst getestet.
Meh. Der Typ hat es perfektioniert, jeden Satz dreimal in marginal anderen Worten zu wiederholen. 18 Minuten und die Kernaussage ist: Die Reseller hatten kurze Deadlines und die Karten sind zu teuer.
Naja es ist etwas langatmig aber die Messung mit der Wärmebildkamera fand ich schon ganz interessant.
Da hab’ ich wohl zu früh abgeschaltet.