Thema:
Re:Die neuen Intel CPUs flat
Autor: magus
Datum:13.11.24 23:45
Antwort auf:Re:Die neuen Intel CPUs von KO

>>Die No Name Youtuber Seite könnte die CPU auf ner Kartoffel installiert haben. Man weiß es nicht.
>
>Deswegen machts natürlich Sinn mehrere dieser Seiten als Vergleich zu nehmen und dann einen Mittelwert daraus zu nehmen. Die werden schon nicht alle auf die gleiche Art betrügen.


Warum betrügen? Was redest du bitte?

>
>>Auf den ersten Blick scheint der RAM auf 6000 Mhz in deren Video zu laufen. CB läuft der Ram wohl nur auf 5600 Mhz.
>
>Testing Games hat 516.000 Abonnenten, werden schon halbwegs seriös sein. Wenn sie betrügen wollten dann wären die sicher schon längst wieder weg vom Fenster.


lol. Wie naiv kann man bloß sein. Wahrscheinlich glaubst du, dass Userbenchmarks ne verlässliche Quelle ist?

Es geht auch gar nicht darum ob die betrügen sondern um transparenz und seriösität.

>
>>Außerdem kauft sich keine sau den 7950X3D, geschweige den einen Intel für Gaming. Alles über 8 Kerne ist reinste Verschwendung.
>
>Sehe ich nicht so.


Es ist egal was du siehst. Technik funktioniert nicht nach aberglaube.

>
>Ich habe es bei CPUs bisher immer so gehalten das ich die aktuell schnellste (die in Vergleichen bei Spielen am schnellsten war) gekauft habe um den PC in der Form so lange wie möglich verwenden zu können und ggfs. 2-3 Generation nur die GPU austauschen zu müssen. Eben weil das halt einfacher geht als die CPU mit Motherboard und Speicher zu wechseln.


Ja und die schnellste ist eben nicht von Intel und auch nicht der 7950X3D von AMD.

>
>Mir ist es auch egal ob ich 400€ oder 600€ für die CPU ausgebe. Das spare ich durch einen Wechsel denn ich zwischendurch nicht machen muß wieder locker ein :)


Ist dein Geld. Schmeiß es raus wofür du es richig hälst.


>
>In meinem jetzigen PC ist deswegen eine I9-13900K verbaut. Die hat zu dem Zeitpunkt Anfang 2023 die besten Benchmark Ergebnisse bei Spielen, die 7800X3D gabs da noch nicht, da war die 5800X3D aktuell die deutlich langsamer war.


Die 7900x3d war da aber schon draußen und ist schneller?

>
>Der einzige Fehler denn ich gemacht habe war das die Wasserkühlung etwas schwach für diese CPU ist, mit angepasster Kühlkurve und den Gehäuse Kühlern reicht es gerade so daß sie zumindest in Spielen nicht ständig ans Thermal Limit kommt.


Ja, kein wunder mit den Energiefresser und Hitzemonstern von Intel.

>
>Aber für Video Bearbeiten und Rendern wo die CPU ständig auf maximal Last ist wäre er nicht ideal, aber das mache ich eh nicht :)
>
>Im übrigen sollte man auch nicht vergessen das Spiele selten so "perfekt" programmiert sind das sie immer genau gleich viel CPU Power an jeder Stelle verbraten. Die haben immer mal wieder Momente wo zuviel an einer Stelle berechnet wird.
>
>Der Vorteil einer schnelleren CPU ist das man diese Stellen besser wegbügeln bekommen so daß es keine kurzen Ruckler gibt.
>
>Aus dem Grund bleibe ich meinem Prinzip treu lieber eine etwas schnellste CPU zu kaufen.
>
>>Mit der 7800X3D bekommt man aktuell das beste Preis/Leistungsverhältnis und die am meisten stromsparende CPU. Die 9800X3D wird den eihkb
>
>Die I9-13900K kam September 2022 raus, Die 7800X3D erst April 2023, das war erst nach meinem PC Kauf. Hätte ich etwas später gekauft wärs wahrscheinlich die AMD CPU geworden.
>
>Aber der Unterschied zwischen den beiden ist jetzt auch nicht so gigantisch.


Doch schon, deiner frisst mehr Strom und wird heißer, während der 7800x3D bis zu 30% schneller ist in spielen, bei viel weniger Strombedarf und Wärmeentwicklung.


>
>>>Denn diese sind durch die Frame Interpolations Techniken der GPUs inzwischen nochmals unwichtiger geworden. Mit 70-80 fps kommt man mit Framegen auch so auf 120 fps.
>>
>>Weil du niemals ins CPU Bottleneck laufen willst.
>
>Was heißt nicht wollen. Ich muß ja nicht ;)


Wie du selbst erkannt hast, hängt das auch unter anderem von den Spielen ab und was auf dem Bildschirm los ist.

>
>Bei den aktuellen Spielen mit Frame Generation die mir gerade so einfallen war immer die RTX4090 der letztendlich "bremsende" Faktor und die I9-13900K CPU selten mal bei 20%.


Ach stimmt, du warst auch ein 4090 Besitzer. aber das was du beschreibst ist doch genau was man will!? Aber warum läuft die CPU zu heißt bei 20%? Die sollte max 60 grad heiß werden oder nicht?

>
>Natürlich bin ich auch jemand der alle Details auf Max dreht und eher noch DLAA statt DLSS Quality verwendet.


Der Unterschied ist gerade bei Quality so minimal, dass man sie fast nicht sieht, aber wenn's dich glücklich macht.

>
>Für PVP Spieler welche die letzten ms an Inputlag weg haben wollen machts sicher mehr Sinn Details runterzudrehen und auf native 120/144 oder noch mehr fps zu kommen.
>
>>Beides wird schwierig mit der Combo aber echte Frames werde immer besser sein als Frame Generation.
>
>Klar, aber NVidias Frame Generation funktioniert schon sehr gut. in FFXVI habe ich es immer an und egal wie sehr ich versuche Fehler zu finden, ich finde keine. Das bisschen mehr an Input Lag bemerke ich kaum.


Je mehr Basis Frames man liefert umso besser die Frame Generation und dass du mit ner 4090 keine Fehler siehst liegt an der der 4090.

>
>>Interpolation ist übrigens was ganz anderes und hat nichts mit DLSS 3 zu tun.
>
>Frame Generation ist schon das gleiche wie Frame Interpolation, Beide erzeugen ein künstliches Zwischenbild aus dem vorigen und dem nächsten Frame.


Das ist so als ob du sagen würdest, dass Schimpanse und Mensch die selbe spezies sind, weil sie 98,5% DNA Überschneidung haben.

Nvidias Technik ist um einiges ausgefeilter, wie du ja selbst im nächsten Absatz erkennst.

>
>NVidias Frame Generation wird im Vergleich zu den in den Fernsehern eingebauten Methoden den Vorteil haben vom Spiel erzeugte Informationen einbeziehen zu können und kann dadurch genauer sein.
>
>Klar, DLSS3 hat damit nichts zu tun, da gehts nur darum das Bild hochzuskalieren.


Frame Generation ist Teil von DLSS 3 ohne mindestens DLSS 3 gibt's keine Frame Generation von Nvidia. Ich hab dich aber auch Missverstanden und dachte du meinst die Interpolation deines TVs die du ja sonst immer so gefeiert hast. ;)


< antworten >