Gemeinsame Unterstützung von Chips und Werkzeugen zwischen 16- und 32-Bit-Computern

Kann eine Produktionslinie für einen 16-Bit-Computer erheblich an Stückkosten sparen, indem Support-Chips und Werkzeuge mit einem anderen 16-Bit-Computer geteilt werden, und zwar in größerem Umfang als bei einem 32-Bit-Computer?

Konkret: Zur Zeit von Windows 3 waren einige der beliebtesten CPUs die 286 (16 Bit), 386 (32 Bit) und 386SX (wie die 386, aber mit einem 16-Bit-Datenbus). Angenommen, ein Unternehmen stellt 286-Computer her und erwägt die Einführung eines 386-Modells, erwägt jedoch, den 386SX zu verwenden, um Geld zu sparen. Die CPU selbst wird natürlich billiger sein, ebenso wie 16 statt 32 Datenbusspuren auf der Hauptplatine.

Aber wird ein 386SX-Computer in der Lage sein, Support-Chips, Werkzeuge oder ähnliches mit der 286-Produktionslinie zu teilen, die die vollständige 386-Maschine nicht hätte?

Soweit ich weiß (und ich war damals ein Computerbenutzer, aber kein Baumeister), waren die damaligen Einsparungen die Chipkosten, nicht die Werkzeugausstattung.

Antworten (2)

Ich werde die allgemeinere Frage überspringen, da sie ein Buch oder mehr erfordern würde, um sie anzusprechen. Ich konzentriere mich stattdessen auf die x86-Zeile. Ich erinnere mich an einen Teil des Kontexts, was das Schreiben etwas einfacher macht (wenn auch vielleicht auch abhängig von unvollkommenen Erinnerungen).

Der 80286 war ziemlich schrullig und wurde eher auf der Grundlage einer Marketingstrategie als einer technischen Entscheidung veröffentlicht. IBM hatte den PC etwa Mitte des Jahres 1981 eingeführt – volle zwei Jahre nach der Einführung des 8088, auf dem er basierte. Der 80386 war zu diesem Zeitpunkt ziemlich klar im Kopf (basierend auf dem tatsächlichen Versuch, Hardware zu implementieren, die den Ideen von Multics entspricht.) Aber auch dieses Projekt war noch weit entfernt, und zu diesem Zeitpunkt war die Marketingabteilung von Intel zu dem Schluss gekommen, dass ein neuer Prozessor erforderlich war. Der 80286 wurde mit der Fähigkeit herausgebracht, durch Softwarebefehle in den geschützten Modus zu wechseln, jedoch ohne die Fähigkeit, ohne Prozessor-Reset in den Real-Modus zurückzukehren. Dadurch wurde der Tastatur die Aufgabe übertragen, das externe Reset-Signal zu erzeugen. Das Hin- und Herschalten zwischen den Modi war die EINZIGE Möglichkeit, über die 20-Bit-Adressbeschränkungen des älteren 8088 hinaus auf den Speicher zuzugreifen (obwohl der 80286 einen 24-Bit-Adressbus unterstützte). Und der Prozess war ziemlich langsam (viele Millisekunden pro Reset-Umschaltung). )

Der IBM PC/AT kam mit einer Taktrate von 6 MHz auf den Markt. Und wie beim 8088-basierten IBM-PC, der selbst auf 4,77 MHz basierte (knapp unter dem Maximum von 5 MHz des 8088), war die Busrate an die CPU-Taktrate gebunden. Der 80286 könnte jedoch schnellere Geschwindigkeiten erreichen. Ich änderte sofort den Quarz von 6 MHz auf 8,5 MHz in meiner eigenen Maschine (der PC/AT kostete damals über 5.000 $). Aber das beschleunigte auch den Bus. Und viele Add-In-Boards würden versagen.

(Intel verdiente zu dieser Zeit mehr Geld mit dem Verkauf von Arbeitsspeichern als mit CPUs. Der Übergang fand später im Jahr 1985 statt, als sich CPUs fest als ihr primäres Profitzentrum etablieren sollten.)

Der erste wirklich IBM-PC-kompatible Computer (es gab einige, aber fast alle scheiterten auf die eine oder andere Weise daran, einige der wichtigen Software für den IBM-PC auszuführen), auf dem fast 100 % von allem lief, was der IBM-PC ausführen würde ( mit Ausnahme des eingebauten BASIC-Interpreters) war der Kaypro 80286i. Das Motherboard war mit gesockelten MSI- und SSI-Logikgattern ausgestattet (eine riesige Anzahl davon). Aber es funktionierte.

Bald darauf wurden andere Hersteller "kompatibel genug", um gut mithalten zu können, und ein ernsthafter Preiskampf begann. (Der Clone-Marktplatz war bald sehr voll.) Aufgrund der Einfachheit des Designs bei diesen Geschwindigkeiten und der relativ geringeren Kosten für die erforderlichen Test- und Messgeräte konnten viele Unternehmen schnell ein eigenes Motherboard auf den Markt bringen. Und sie fingen an, auf Geschwindigkeit zu konkurrieren. Bald sahen wir 8 MHz, 10 MHz, 12 MHz und sogar 16 MHz (ungefähr zu diesem Zeitpunkt war der 80386 bald fällig). Aber um Geschwindigkeiten über 10 MHz zu erreichen, musste der Bus von der CPU-Geschwindigkeit entkoppelt werden. Es gab keine Möglichkeit für die E/A-Boards, mit den schnell steigenden Geschwindigkeiten der CPUs Schritt zu halten, die Intel jetzt auspumpte.

Hier kommen Unternehmen wie Chips and Technologies (alias C&T) ins Spiel. Sie stellten ASICs her, die das Design, die Herstellung und das Testen von Motherboards erheblich vereinfachen würden, und diese ASICs ermöglichten zum ersten Mal die Entkopplung der Busrate von der CPU-Rate. (Es ist möglich, dass jemand dies mit DIP-ICs versucht hat, aber ich kann mich nicht erinnern, dass dies passiert ist.) Dies ermöglichte es den Herstellern, mit der Geschwindigkeit zu konkurrieren, ohne die Fähigkeit zu beeinträchtigen, ältere (oder aktuelle) Platinen zu unterstützen, die ebenfalls häufig verwendet wurden (EGA, VGA, Drucker usw.)

[Außerdem traten auch mehrere BIOS schreibende Unternehmen in den Markt ein (und waren es gewesen), was die Barrieren für einen Motherboard-Hersteller senkte, wettbewerbsfähige Boards auf den Markt zu bringen.]

Intel entwickelte jedoch mehrere neue Strategien, die 1985 zur Veröffentlichung des 80386DX führten. (Der 80386SX wurde 3 Jahre später eingeführt.) Eine davon war die Aufnahme eines breiteren Datenbusses. Eine andere war die saubere Implementierung der Multics-Unterstützungshardware und die Behebung des Problems des Wechsels in den und aus dem geschützten Modus. Das Timing wurde ebenfalls als wichtig angesehen (3-Jahres-Veröffentlichungszyklen).

Beim IBM-PC gab es einen Sockel für den 8087. Dieser wurde aber meist direkt bei IBM bestellt. Und die meisten Leute hatten kein Bedürfnis danach (es war sowieso nicht schnell und es war eine teure Option.)

Aber mit der Einführung des 80286 ermutigte Intel diese neu entwickelten alternativen (Nicht-IBM) Motherboard-Hersteller weiterhin dazu, 80287-Sockel auf ihren Boards zu integrieren. Und die Kunden begannen gerade erst zu erfahren (durch die üblichen Zeitschriftenartikel), dass ein 80287 oft eine Ergänzung wert war.

Der 80386SX wurde drei Jahre nach dem 80386DX (der früher ohne den DX als 80386 bezeichnet worden war) herausgebracht 80286.) Während einige argumentieren, dass dies einschließlich der Möglichkeit ist, ältere C&T-Unterstützungs-ASICs zu verwenden, spricht meiner Erinnerung nach sowohl das Timing als auch die Anforderung, den 80387DX zu unterstützen, stark gegen diese Idee. Als der 80386SX auf den Markt kam, waren diese C&T-Chips bereits etwa fünf Jahre alt und ohnehin nicht vollständig kompatibel mit dem neuen 80386SX/80387SX-Paar. [Ungefähr zu dieser Zeit begann C&T auch damit, direkt mit Intel zu konkurrieren (Super386 38600SX.)]

All dies würde Intel übrigens mit der 80486-Familie auf die nächste Stufe heben. Sie würden sich ernsthaft mit der Entwicklung ihrer eigenen Chipsätze befassen und selbst direkt mit C&T konkurrieren. Und sie würden nicht nur einen 80486DX (mit Fließkomma) einsetzen, sondern bald darauf auch einen 80486SX und einen 80487SX. Dies waren alle genau die gleichen Chips, nur neu verpackte und neu verbundene Versionen. (Der 80487SX war nur ein neu verpackter 80486DX, der den 80486SX buchstäblich aus dem Bus hob und ihn effektiv deaktivierte. Der 80486SX war auch ein neu verbundener 80486DX-Chip, der möglicherweise eine defekte FP-Einheit hatte, die deaktiviert werden würde.) Intel wollte Chips an die verkaufen öffentlich, direkt, jetzt! (Große Gewinne.)

Sie hatten früher etwas Geld mit dem Verkauf von 80287- und 80387-Gleitkomma-ICs verdient. Und sie sahen eine Gelegenheit, sich ernsthafter mit dem Verkauf von ICs an den Einzelhandel zu beschäftigen. (Vorher verkauften sie an Ingenieurbüros, die in großen Mengen einkauften und allzu oft mit engen Margenpreisen rechneten.) Beim 80386SX ging es also eher darum, die Board-Hersteller zu ermutigen, wieder einen Sockel einzubauen, als einen Sockel, den Intel direkt durch verkaufen würde Geschäfte wie K-Mart. Intel würde in das Geschäft einsteigen, ICs im Einzelhandel zu verkaufen!!!

Der PCI-Bus sollte später noch als "grüner Bus" verkauft werden. Aber sein eigentlicher Zweck (Reflexionswelle statt einfallendes Wellendesign) bestand darin, ein weiteres ernstes Problem zu lösen. Intel hatte sich mit der 80486-Familie an die C&T-Neulinge gewandt und das ASIC-Support-Chip-Geschäft praktisch übernommen. Aber jetzt stellten sie fest, dass die Mainboard-Konkurrenz „Mama und Papa“, Clone-Wars, sie auf andere Weise umbrachte – Boards waren viel zu billig. Das bedeutete, dass auch Intel seine Chips billig verkaufen musste. Nicht so viel Gewinn dabei. Sie mussten die „Tante-Emma“-Geschäfte zerstören und den Wettbewerb in der Motherboard-Herstellung stark reduzieren. Der PCI-Bus würde bei seiner Einführung bedeuten, dass ein einzelnes Test- und Messgerät mehr als 100.000 US-Dollar pro Stück kosten würde! Die Entwurfsregeln waren komplex (Serpentinentakt mit 2 ns Versatz relativ zu den Daten usw.) und die Testausrüstung teuer. Dieser und einige andere Schritte trugen dazu bei, die kleinen Unternehmen aus dem Markt zu drängen und auch dort das Ziel von Intel zu erreichen.

(Ich habe Chipsatz-Tests für Intel um die Einführung von Pentium, Pentium-Pro und Pentium II herum durchgeführt.)


Um Ihre Frage zum 80386SX zu beantworten ... Frühere Chipsätze, die für die "Clone Wars" 80286-PCs verwendet wurden, konnten 1988 NICHT mit dem 80386SX verwendet werden, als er eingeführt wurde (viele Jahre nachdem die C&T-Chipsätze für den 80286 existierten.) Dies lag hauptsächlich an den ernsthaft unterschiedlichen zeitlichen Problemen, die diese beiden Familien trennten. Stattdessen setzten ACC, C&T, G2 (für die ich auch kurze Zeit gearbeitet habe), Western Digital/Faraday und natürlich Intel Chipsätze ein, um den 80386SX direkt zu unterstützen. (Ganz zu schweigen von der Notwendigkeit, den 80387SX zu unterstützen.) Ich kann mich nicht erinnern, ob jemals jemand versucht hat, einen älteren C&T 80286-Chipsatz mit dem 80386SX zu verwenden. Aber ich bezweifle ernsthaft, dass es überhaupt versucht wurde, so spät im Spiel und mit anderen Chipsätzen, die 5 Jahre später leicht verfügbar waren.

Tolle Antwort, danke! Nur eine kleine Korrektur: 'Floating Point direkt in den früheren 80386DX einbauen' - der 386 hatte keinen eingebauten Floating Point, das kam erst mit dem 486 zustande.
@rwallace Danke. Wie ich schon sagte, mein Gedächtnis ist ein wenig unglaubwürdig. Ich werde meine Fehler reparieren. Danke!
PCI löste auch einige ziemlich große technische Probleme mit ISA/EISA. Als OS-Entwickler habe ich damals das Plug-and-Play und die Geschwindigkeit sehr geschätzt. Ich glaube nicht, dass "mach es kompliziert" ein explizites Ziel war; Ich kam mir vor wie: "Also, wenn es kompliziert ist, lass uns voranschreiten!" war eher das Nachdenken. Wenn Mama und Papa mal auf der Strecke blieben, vergoss Intel keine Tränen.
@JonWatte Es hat technische Probleme verursacht. Beispielsweise unterstützte ISA DMA, jedoch nur mit einer festen Rate. PCI-unterstützte Bursts. South Bridge musste es klären. Mehr als 50 % aller Chipsatz-Bugs stammten von der ISA-PCI-Southbridge und von Seitenkanalsignalen, die hinzugefügt wurden, um die Dinge zum Laufen zu bringen. Irgendwie funktioniert es jedenfalls. Und es gibt noch viel mehr, aber hier im Kommentar ist kein Platz für sie. Ich war dort und arbeitete bei Intel, um diese Dinge aufzuspüren, denn das war meine Aufgabe. (Ich mochte ISA, weil ich etwas verdrahten würde und es funktionieren würde – billig.) Die Mama/Pop war auch ein Hauptgrund. Ich war dort und habe es direkt von einem VP bekommen.
Aus der Sicht eines Elektronikingenieurs kann ich vollkommen verstehen, dass er an die Grenzen gehen muss! Aus Sicht der Systemsoftware war es großartig! (Genauso wie es großartig war, Multics-Unterstützung in den 386 zu integrieren.) Um seine Größe zu bezeugen, verwenden wir IMMER NOCH viele der Konzepte von PCI, da es sich zu PCI-Express entwickelt hat. (Vergleiche mit dem evolutionären Anhang des AGP-Ports. Kann auch nicht sagen, dass VESA besser war ...)
@JonWatte Ich habe Betriebssysteme geschrieben und von anderen daran gearbeitet und meine erste Erfahrung mit dem Schreiben von 80386-Betriebssystemen wirklich genossen. (Ich gehe zurück bis 1975, als ich O/S-Code schrieb.) Mir gefiel auch wirklich das sehr saubere Design von BSD386, das dazu passte. Aber ich habe auch Bastler-Hardware gemacht und ISA war sehr einfach und leicht. PCI war sehr teuer in der Entwicklung, Zeit und Geld. -- Ja, ich habe an Kursen über PCI teilgenommen, die von Intel bezahlt wurden. (Ich war auch dabei, als AGP hinzugefügt wurde.) Trotzdem mag ich die Einfachheit für Bastler von ISA. Ich betreibe deswegen hier übrigens zwei ISA-Bus-Boxen.
AFAIK 286-Chipsätze konnten ohne Modifikation nicht direkt mit dem 386SX verwendet werden, aber es gab viele Chipsätze, die beide unterstützten.
Als Randnotiz gab es damals noch viele Chipsatz-Anbieter. Es war unvermeidlich, dass das Design eines PC-Motherboards irgendwann ohnehin Fachleuten vorbehalten bleiben würde.
Zur Zeit von PCI war Cache-RAM so teuer, dass es ohnehin dazu neigte, die Kosten eines Motherboards zu dominieren.
@YuhongBao Ich war zufällig während der Zeit des Übergangs zu PCI bei Intel und weiß ziemlich genau, was eines der Motive für PCI tatsächlich war. (Nicht der einzige.) Es sollte die vielen kleineren Motherboard-Hersteller töten. Bei Treffen, an denen ich teilnahm, wurde diskutiert, dass die damaligen Kosten für die erforderliche Testausrüstung zur Validierung von Busdesigns im Reflexionsmodus im fünfstelligen US-Dollar-Bereich lagen und dass dies eine sehr schwierige Belastung darstellen und sehr wahrscheinlich einen "erwünschten Wirkung." Dies war keine unbeabsichtigte Nebenwirkung. Es war ein Top-of-the-Table-Tor. Nur zu deiner Information.
Es war zumindest offener als der MCA-Bus, oder?
@YuhongBao Und die Mindshare-Bücher, die es besprachen, waren ziemlich gut und beliebt. Sie boten auch Kurse an, die ich auch besuchte. (Das waren gute Kurse!) Aber Ihr Punkt ist orthogonal zu meinem Punkt über eine Schlüsselabsicht. Intel verkaufte einen eigennützigen Zweck in eine öffentliche Modeerscheinung für „Grünheit“. Hätte die gleiche Notwendigkeit, Mother-and-Pop-Motherboard-Designer vom Spieltisch zu kratzen, noch mehr Energieverbrauch erfordert, hätten sie das stattdessen getan. Ich habe nur einen anderen Weg gefunden, es zu verkaufen. Das ist alles. „Öffner“ zu sein, ist orthogonal zu diesem Ziel.
Einen einzigen Chipsatz zu haben, der sowohl 386SX als auch 286 unterstützt, war damals wichtig, als Intel der einzige war, der den 386SX herstellte, und Engpässe an der Tagesordnung waren. (AMD begann Mitte 1991 mit der Herstellung des 386SX)

Auch wenn Sie Ihre Frage nicht genau beantworten, sollten Sie die größte Erfolgsgeschichte von allen in Betracht ziehen: den ursprünglichen IBM-PC. Dies verwendete den 8088, eine 8086 (16 Bit) CPU mit einem 8-Bit-Datenbus und 8-Bit-IO-Chips.

Genauer gesagt, abgesehen von RAM gibt es im Allgemeinen keinen Zweck für die Verwendung von 32-Bit-Unterstützungschips, und es gibt keinen Vorteil, sie zu verwenden, wenn sie vorhanden wären.

Im Allgemeinen verwendeten 386SX-Maschinen Support-Chips der 286-Familie.