X
Kommentare zu:

Apple wirft auch Grafikchip-Hersteller raus - Macs bekommen Metal-GPU

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] Robin01 am 07.07. 15:59
Super für Mac-Nutzer: mehr Leistung auf langsameren Chips.
Super für den Rest: ein Großabnehmer bricht weg, das senkt die Preise.
[re:1] topsi.kret am 07.07. 16:00
@Robin01: Wenn eon Großabnehmeer wegbricht, fallen die Preise eben nicht ... BWL erstes Semester.
[re:1] Robin01 am 07.07. 16:08
+1 -3
@topsi.kret: und wieso genau?
[re:1] FensterPinguin am 07.07. 16:11
@Robin01: Die Produktion fährt herunter, damit müssen sich die Kosten der Grundlast (Maschinen, Entwicklung etc.) auf weniger Produkte aufteilen
[re:2] Gast87092 am 07.07. 16:12
+4 -
@Robin01: Wenn sie vorproduziert hätten und dann auf den Grafikkarten sitzen bleiben würden würden die Preise fallen. In diesem Fall wird aber einfach in Zukunft die Produktion zurückfahren.
[o2] FensterPinguin am 07.07. 16:15
+5 -2
Eigentlich ist das nur konsequent. Wenn sie die ganze Architektur ändern und sich unabhängig machen, war zu erwarten, dass sie das in allen wichtigen Komponenten tun.
Weiß jemand, ob sie den Ram noch zukaufen? Andererseits lässt der sich auch später ohne Probleme ersetzen, ohne die Architektur auf Assemblerebene ändern zu müssen.
[re:1] wertzuiop123 am 07.07. 16:24
+3 -2
@FensterPinguin: Was heißt noch? So viel produzieren sie jetzt nicht eben mal selber. Apple verbaut am häufigsten Samsung, Hynix und Micron Crucial
[re:1] FensterPinguin am 07.07. 16:31
+2 -1
@wertzuiop123: Noch heißt soviel wie weiterhin. Und zukaufen heißt soviel wie nicht selbst oder im Auftrag produzieren. Die CPUs produzieren sie ja sicherlich auch nicht (alle) selbst sondern vergeben das an Auftragsfertiger.
Also: Sind die Speicher weiter "von der Stange" oder auch Appe-Spezial-Chips?
[re:1] wertzuiop123 am 07.07. 16:35
+2 -
@FensterPinguin: Finde keine Infos über "Spezial Chips".

Aber falls den Hersteller herausfinden willst, die Vendor ID Codes:
0x014F - Transcend Information
0x2C00 - Micron Technology
0x802C - Micron Technology
0x80AD - Hynix Semiconductor
0x80CE - Samsung Electronics
0xAD00 - Hynix Semiconductor
0xCE00 - Samsung Electronics
0x02FE - Elpida
[re:2] Rage87 am 08.07. 07:03
+1 -1
@FensterPinguin: Naja, bei älteren Macbooks wie z.B. das 2011 Modell - dort wurde von Amd z.B der GPU nur geliefert - den Chip Träger und alles darum hat Apple selber gebaut.... das macht nicht jeder Hersteller so..
[re:1] FensterPinguin am 08.07. 16:42
+ -1
@Rage87: Aber in dem Beispiel ist der Prozessor, also die GPU selbst, immer noch AMD, egal wer die Peripherie baut.
Um das zu verdeutlichen: Nur weil ich ein Mainboard von ASUS habe, wird mir immer noch jeder zustimmen, dass das unter meinem Schreibtisch ein AMD-System ist, einfach weil die CPU von denen stammt.
[re:2] Rage87 am 08.07. 17:10
+1 -
@FensterPinguin: Das stimmt ja auch, trotzdem kommen noch viele Teile von Zuliefern leider dann aus Kostengründen. Ich denke das die den Ram z.B. aus Kostengründen nicht selber Produzieren werden. Den kann man ja seit einigen Jahren sowieso auch nicht mehr Wechseln weil er fast immer verlötet ist. Mal sehen wie es halt weiter geht.... ich bin im Moment eher Skeptisch bei dem ganzen. Aber vielleicht wird es ja mal ein Macbook ohne Serienfehler dann... in den letzten Jahren hatten die immer eine Schwachstelle... billiger Kondensator, Verarbeitung der Gpu, Tastatur usw.
[o3] LoD14 am 07.07. 16:21
wenn apple es schafft, einen grafikchip zu designen, der nicht nur der einfachen SoC grafikeinheiten das wasser reicht sondern auch den grossen chips von amd/nvidia: respekt apple. das versucht intel seit jahrzehnten erfolglos.
[re:1] Cheeses am 07.07. 16:44
+7 -1
@LoD14: Ob Intel es wirklich jemals ernsthaft "versucht" hat ist wohl mal wieder so eine Frage über die man sich je nach Lager streiten kann.
[re:2] Robin01 am 07.07. 21:15
+2 -1
@LoD14: Apple hat sich bestimmt von den beiden die Architekturen geben lassen um ihre Software perfekt darauf anpassen zu können ...
[re:3] bigspid am 07.07. 21:47
+2 -1
@LoD14: Einerseits stimme ich dir zu, andererseits muss ich beim Intel-Satz widersprechen. Die haben bisher nur Grafikeinheiten gebracht, die nicht für Spiele gedacht waren, sondern für Office und Internetanwendungen. Das hat sich aber vor wenigen Jahren geändert. Die ersten Grafikchips von Intel, die auch für Spiele konzipiert sind, sind grad in der Pipeline und werden voraussichtlich Ende des Jahres oder 2021 released. Danach können wir einen Vergleich ziehen ;)
[re:1] LoD14 am 07.07. 21:50
+3 -1
@bigspid: Also ich bilde mir ein, bereits um das Jahr 2000 in der damaligen PC-Action (gibts die überhaupt noch?) gelesen zu haben, dass Intel neue Wunder-GPUs bringen will um dem Gaming Markt aufzumischen. Und das kam ja alle paar Jahre immer wieder mal auf. War alles Vaporware.
[re:1] bigspid am 08.07. 00:46
+1 -
@LoD14: Das kann sein, aber wirklich released haben die nie was. Diesmal gibts zumindest belastbare....Leacks von Benchmarks :D
[o4] christopher-s. am 07.07. 17:12
+5 -
Abwarten. Irgendwie mag es nicht so recht in meinen Kopf, dass Apple künftig nur noch eigene GPUs nutzen soll. In den "Einsteiger" Geräten klar, da haben sie bisher auch nur Intel GPUs am Start gehabt. Von daher erstmal nichts anderes. Aber in den Pro Geräten, insbesondere iMac Pro / Mac Pro (sollte es die Linien künftig noch geben)? Wo sollen da ausreichend leistungsfähige(re) Pendants zu den AMD / Nvidia GPUs herkommen?
[re:1] mreyeballz am 07.07. 17:38
+6 -1
@christopher-s.: Denke sie lösen es über Parallelisierung. Einfach genug Core zusammenschalten. Ob die Software damit klar kommt wird sich dann zeigen.
[re:1] christopher-s. am 07.07. 17:54
+5 -1
@mreyeballz: Dass es so einfach nicht ist zeigt sich bei Multi GPU Setups seit immer.
Edit: Minus kommt nicht von mir...
[re:2] Mixermachine am 08.07. 07:21
+2 -
@mreyeballz: die viele Cores möchten aber auch mit Daten versorgt werden.
Allein das Speicherinterface für >1000 Kerne ist schon richtig kompliziert.
[o5] happy_dogshit am 07.07. 17:45
+7 -
Sehr gut. Also bald heißt es: Speicher verlötet, SSD verlötet, CPU verlötet und GPU verlötet.
[re:1] wertzuiop123 am 07.07. 17:54
+13 -
@happy_dogshit: klingt nach einer kernschmelze
[re:2] christopher-s. am 07.07. 17:55
+5 -2
@happy_dogshit: Ist doch jetzt schon so
[o6] awwwp1987 am 07.07. 18:35
+5 -3
Ich les den Text so raus.... Intel AMD werden herausgeworfen. Apple entwicklet eigenen SoC und eigene GPU . Unterm Strich beim Kunden +500-1000 Euro Preisaufstieg. Denn wir wissen dem potenziellen Appkekunden ist der Aufpreis auch egal... Er kauft das Gerät und Apple freut das....
[re:1] Brassel am 07.07. 19:27
+3 -2
@awwwp1987: Genau das hatte ich mir auch gedacht als ich den Artikel gelesen habe.
Gewinnoptimierung, durch Wegfall der lästigen Lizenzen.

Der Mac akzeptiert dann nur noch die hochpreisigen Teile von Apple. Grafikkarte, Speicher, etc. müssen Apple kompatibel sein, sonst läuft die Kiste nicht. Und das lässt sich der Apfel teuer bezahlen. - ein Schelm wer sich böses dabei denkt.
Hat vor etlichen Jahren Intel schonmal mit dem Rambus Speicher versucht. Hat nicht geklappt wie man heute weiß (lol).
[re:1] topsi.kret am 07.07. 19:43
+1 -2
@Brassel: Und Du meinst, die Gelder für die Entwicklung sind vernachlässgbar gegenüber den Lizenzen?
[re:1] wertzuiop123 am 07.07. 20:20
+ -
@topsi.kret: sehr langfristig gedacht, ja. und genug geld haben sie ja was zu entwickeln
[re:1] topsi.kret am 07.07. 20:25
+1 -3
@wertzuiop123: Du musst Dich schon entscheiden, haben sie genug Geld um zu entwickeln oder sparen sie dadurch und maximieren ihren Profit?
[re:2] criore am 07.07. 20:43
+4 -3
@topsi.kret: Geht doch beides auch?

Zeug teurer verkaufen und entwicklungskosten reinholen.
Lizenkosten sparen und proft machen.

Am ende gewinnt apple immer die kunden bluten aber die haben ja genug blut^^
[re:3] Mixermachine am 08.07. 07:23
+1 -
@topsi.kret: kurzfristige vs langfristige Investition.
In den ersten paar Jahren macht man damit Miese.
Auf lange Sicht kann es sich stark lohnen, wenn man genügend Geräte umsetzt.
[re:2] Brassel am 08.07. 07:22
+1 -1
@topsi.kret:
Die werden sich das schon durchgerechnet haben.

Langfristig gesehen, ist die Entwicklung eines eigenen Grafikchips für Apple mit Sicherheit lohnenswert.

Apple hat genug Erfahrung und - wahrscheinlich - eine gute Entwicklungsabteilung.
Sie würden diesen Schritt nicht machen, wenn Apple nicht der Meinung ist das sie das hinkriegen.
[re:2] alh6666 am 08.07. 14:23
+ -2
@awwwp1987: ARM ist deutlich günstiger als Intel/AMD, ich erwarte günstigere Preise für ARM Mac's.
[o8] AlexKeller am 07.07. 21:18
+ -2
ich denke, Apple wird die von Intel angebotenen CPU integrierten Grafikprozessoren angreifen wollen. k

Kann mir aber nicht vorstellen, dass Apple AMD/ATI und NVIDIA im Grafikkarten Segment angreifen möchte, weil der GPU Markt ist nochmals eine Branche für sich! da hat Apple fast keine Erfahrung!

das einzig Gute an Metal ist, dank dieser Schnittstelle gibt es die offene Variante mit Vulkan. ohne dem eingreifen von Apple nur OpenGL als bisherige offene Schnittstelle.
[re:1] floerido am 07.07. 21:59
+2 -
@AlexKeller: Wieso angreifen? Apple benötigt einfach eine GPU, wenn man Intel CPUs rauswirft, dann wirft man auch die iGPU raus. Also nimmt man entweder den PowerVR als Vorlage oder eine angepasste Variante der anderen iGPUs der Smartdevices.
[re:1] AlexKeller am 08.07. 06:11
+2 -1
@floerido: okay, vielleicht ist das Wort angreifen, dass falsche. Wollte eher damit sagen, dass Apple mit ihrer kommenden GPU Serie die Intel iris pro ersetzt, welche leistungsmässig auf dem gleichen oder gar besseren Niveau sein soll. Aber sicher nicht eine Radeon Pro Vega, oder eine RTX 2080 TI oder gar eine Quadro RTX 8000 von NVIDIA.
[o9] NicoH am 07.07. 22:50
+4 -1
Ich finde das langfristig gefährlich für Apple, selbst wenn sie zum Start wirklich gute Performance haben. Haben ihre eigenen Chipdesigner keine Konkurrenz, in Zukunft wird immer das eigene verbaut, auch wenn andere besser sind.
Könnte laufen wie bei den Displays, da war Apple doch auch mal das nonplus Ultra und meinte nicht auf Oled umsteigen zu müssen. Bis sie technologisch im Hintertreffen waren.
[re:1] Robin01 am 07.07. 23:45
+1 -2
@NicoH: so schnell steigt man doch von Apple nicht um. Da kann man schon ein paar Jahre mit rückständiger Technik weitermachen.
[re:2] KarstenS am 08.07. 01:10
+1 -2
@NicoH: Was die OLEDs angeht, waren die zu dem Zeitpunkt auch noch auf einem anderen Level, als es der Fall war, wo auch Apple die benutzt hat. Mein iPhone X war nicht mein erstes Smartphone mit OLED. Dennoch war das im Vergleich ein völlig neues Niveau. Besonders was die Langzeitnutzung angeht.
[10] leander am 08.07. 00:12
+1 -
den gleichen Fehler hat 3dfx gemacht und wurde von anderen CPU Grafik Herstellern ausgestoßen und wurde von nVidia gekauft. oh oh
[11] Tom 1 am 08.07. 02:45
+1 -2
Stellt euch mal vor, Apple GPUs überholen Nvidia GPUs.. Nur so'n Gedanke
[re:1] House-MD am 08.07. 07:20
+3 -
@Tom 1: In welchem Bereich soll das genau stattfinden? Im Profi-Bereich ist es nicht die Masse die Geld bringt und in allen anderen Bereichen die eine starke, leistungsfähige Grafikeinheit benötigen sind MAC Computer nicht mehr in Masse vertreten. Apple will doch mit den GPU direkt kein Geld verdienen sondern sein System optimieren. Apple will wieder außerhalb jeder Konkurrenz stehen und sich massiv abschotten. Die Frage die bleibt ist, wie hoch ist der Aufwand für alle Software-Entwickler außerhalb von Apple, ihre Programme wieder entsprechend anzupassen.

Man stelle sich mal vor, Windows als Betriebssystem hätte immer nur Rücksicht auf eigene Hardware, Schnittstellen und Treiber nehmen müssen. Es gebe so gut wie keinen Zubehörmarkt.
[re:2] Mixermachine am 08.07. 07:29
+3 -1
@Tom 1: AMD und NVIDIA kämpfen seit Jahren auf einem speziallisierten Markt mit den besten Ingenieuren gegeneinander und Apple grätscht da einfach rein?
https://i.kym-cdn.com/entries/icons/mobile/000/023/021/e02e5ffb5f980cd8262cf7f0ae00a4a9_press-x-to-doubt-memes-memesuper-la-noire-doubt-meme_419-238.jpg

Die werden die iGPUs und evtl auch die Iris Pro von Intel verdrängen.
Die anderen GPUs sind Meisterstücke der Ingenieurskunst mit komplizierten Aufbauten.
Evtl kann man bei AMD lizensieren und dann den eigenen Namen drauf schreiben.
[re:1] Tom 1 am 10.07. 05:32
+ -
@Mixermachine: Da hast du vllt recht.
[re:3] shadowsong am 08.07. 07:43
+3 -1
@Tom 1: Jaaaa genaaaau und alle Minen dann mit Apple GPU weil die dann 1000x besser sind als ASICs.... Cryptowährung wieder im kommen.
Apple GPU > nVidia GPU? Nicht in diesem Jahrzehnt (zumindest meine Einschätzung).
[re:4] floerido am 08.07. 12:59
+1 -
@Tom 1: Mit hoher Wahrscheinlichkeit wird es ein skalierte variante nach Design von Imagination Technologies. Apple hat Anfang 2020 die Lizenz für das das Design verlängert.
[12] Kirill am 08.07. 07:55
+2 -
Schlechter kann Apples Treiberqualität ja immerhin nicht werden, dafür ist nach oben sehr viel Luft.
[re:1] christopher-s. am 08.07. 08:25
+1 -
@Kirill: Wahre Worte :/
[13] alh6666 am 08.07. 15:40
+1 -
Ich hoffe Apple weiß genau was sie da tun. Das kann brutal in die Hose gehen. Ich glaube irgendwie nicht das ARM bei der Power von Intel/AMD mithalten kann. Und Nvidia ist noch viel weiter entfernt.
[14] kebab3000 am 08.07. 18:31
+1 -
Ein Computer nur mit Apple-Komponenten. Wahrscheinlich mit nicht standardisierten Steckplätzen, und alle Teile sind fest verlötet und verklebt. Bei jeglicher Manipulierung erlischt wahrscheinlich die Garantie.
Alter, ohne mich!
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture