Woher stammen die archivierten Diskussionen in Google Groups?

Ich durchforstete alte Nachrichten in rec.games.chess von Google Groups , als mir ein Gedanke auftauchte – woher kamen all diese Nachrichten aus den 80er und 90er Jahren? Genauer gesagt, die Frage ist, wo die physischen Manifestationen von ihnen waren/sind.

Laut Wikipedia : "Google Groups wurde im Februar 2001 in Betrieb genommen, nachdem Google das Usenet-Archiv von Deja übernommen hatte. Deja News war seit März 1995 in Betrieb."

Es gibt auch diesen Leckerbissen: "Das Google Groups-Archiv von Usenet-Newsgroup-Beiträgen stammt aus dem Jahr 1981.[3] Über die Google Groups-Benutzeroberfläche können Benutzer Usenet-Gruppen lesen und in Usenet-Gruppen posten."

Aber woher kamen all diese alten Nachrichten (E-Mails?) eigentlich? Von welchen physischen Computernetzwerkstandorten wurden sie alle bezogen? Wo wurden all diese Nachrichten vor dem Aufkommen des World Wide Web gespeichert?

Ich finde Wikipedia, um ehrlich zu sein, höllisch vage. Details kann ich nirgendwo finden. Quellen und Erläuterungen wären insbesondere hilfreich. Ich habe ein sehr schlechtes Verständnis des frühen Internets, da ich in das moderne Zeitalter von Mobiltelefonen und PCs hineingeboren wurde.

Ich vermute, dass die Antwort Usenet ist . Wir hatten ein aktives Internet, bevor die großen Dienste gegründet wurden. Viele von uns waren damals im Usenet aktiv.
Ja, sie kamen alle aus dem Usenet. Leider scheinen sie alle erweiterten Suchfunktionen seit der ersten Portierung auf Gruppen beschädigt zu haben, so dass es nicht trivial ist, etwas zu finden
Das "World Wide Web" ist nur ein einziger Anwendungstyp, der auf dem Internet läuft. Das Internet selbst ist viel älter als das World Wide Web. Viele der älteren Systeme, die im Internet laufen (Gopher, Usenet usw.), sind jetzt tot, ihre Funktionalität ist in das einzelne http(s)-Protokoll integriert.
@GorttheRobot Ich würde nicht "tot" sagen, da beide Beispiele, die Sie zitieren, heute noch verwendet werden, wenn auch viel seltener als in der Vergangenheit.
@JBentley Tatsächlich ist das Web so degradiert, dass Gopher eine Wiederbelebung erlebt.
Google Groups hat Usenet für mich kaputt gemacht: Es hat die Gründung von Nicht-Usenet-Gruppen gefördert, die Teilnehmer mit einem Stil einbrachten, der nicht den vernünftigen Usenet-Konventionen folgte, und diese Leute kamen dann zu Usenet-Gruppen, ohne zu merken, dass sie sich in einer anderen Umgebung befanden
@Henry Noch schlimmer ist, dass Google Groups das Usenet balkanisiert. Viele Poster verwendeten GG - OK, aber Spammer und Trolle scheinen GG viel häufiger zu verwenden (In einigen Gruppen verbessert das Töten aller Benutzer von GG die Erfahrung so sehr und verliert sehr wenige wertvolle Poster). Dann sagt Google wegen Spam von GG die Gruppe ist nur Spam und löscht die Gruppe.
Das Usenet geht weit vor Deja News zurück, ich habe Mitte der 80er Jahre darauf gepostet.
Es gibt immer noch eine beträchtliche Anzahl von nntp-Servern in freier Wildbahn, aber: Viele von ihnen werden von Einzelpersonen für eine Gruppe von Personen betrieben, oder sie werden von kommerziellen Organisationen betrieben, die den Zugriff an ihre Kunden verkaufen.
@MarkC.Wallace Verdammt, wir hatten ein aktives Internet, lange bevor es HTML oder HTTP gab. Ich finde Hyperlinks eigentlich cool (ich meine, schau dir unser Gehirn an), aber sowohl Scripting als auch Multimedia sind ein bedauerlicher Irrweg ;-).
Ich schätze, ich fühle mich jetzt wirklich alt, da Usenet zu einem Zeitpunkt in meinem Leben allgemein bekannt war ...

Antworten (3)

Die alten Diskussionen waren Nachrichten im USENET , das immer noch existiert. rec.games.chess ist eine Newsgroup im USENET, es ist nicht in erster Linie ein Teil von Google Groups. Nachrichten können in der Newsgroup gesendet und gelesen werden, ohne in die Nähe von Google zu gehen.

Die Daten der Newsgroups werden auf USENET-Servern gespeichert, von denen es viele gibt. USENET wird verteilt. Nachrichten werden mithilfe von NNTP auf jeden Server kopiert

Jeder Server wählt aus, welche Gruppen er von anderen Servern lädt, von denen er zum Lesen konfiguriert ist.

Um die Nachrichten zu lesen, muss ein Benutzer einen NNTP-Client oder Usenet-Reader haben, von denen es mehrere gibt, die Webschnittstelle von Google Groups ist eine davon. Sie können auch Ihren eigenen Server betreiben - was ich getan habe, da ich Nachrichten von mehr als einem Ort benötigte und auch einen schnellen Download über eine Wählleitung benötigte, anstatt Nachrichten zu lesen und jede zum Lesen herunterzuladen.

Google betreibt einige dieser Server und stellt einen Front-End-Client zum Lesen der Nachrichten bereit. Die Server bekamen den Verlauf von Deja News, die nachgesehen und Nachrichten von den Servern erhalten hatten, die einen längeren Verlauf hatten. Normalerweise wird ein Server nur nach Nachrichten gefragt, die seit der letzten Abfrage eingetroffen sind. Aus Wikipedia geht hervor

Die webbasierte Archivierung von Usenet-Beiträgen begann 1995 bei Deja News mit einer sehr großen, durchsuchbaren Datenbank. 2001 wurde diese Datenbank von Google übernommen.[90]

Google Groups hostet ein Archiv von Usenet-Beiträgen, die bis Mai 1981 zurückreichen. Die frühesten Beiträge, die von Mai 1981 bis Juni 1991 datieren, wurden Google von der University of Western Ontario mit Hilfe von David Wiseman und anderen gespendet[91] und wurden ursprünglich von Henry Spencer an der zoologischen Fakultät der Universität von Toronto archiviert.[92] Die Archive für Ende 1991 bis Anfang 1995 wurden von Kent Landfield von der NetNews-CD-Reihe[93] und Jürgen Christoffel von GMD[94] zur Verfügung gestellt. Das Archiv der Posts ab März 1995 wurde von der Firma DejaNews (später Deja) gestartet, die im Februar 2001 von Google gekauft wurde. Google begann ab der zweiten Augustwoche 2000 damit, Usenet-Posts für sich selbst zu archivieren.

Usenet-Server befanden sich in der Regel in jeder Universität und in vielen Unternehmen, und als Einwähl-Internetanbieter anfingen, hatte jeder von ihnen oft einen Server, ein Beispiel war AOL. Als das Internet die Kontrolle übernahm, wurden viele davon abgeschaltet und Server an verschiedene Unternehmen ausgelagert. Ein weiterer Grund dafür ist, dass Spam hier zuerst als Wikipedia-Spamgeschichte bezeichnet wurde und schließlich, glaube ich, einen Großteil der Nachrichten produzierte, auch Binärdateien, z für die meisten Serverbesitzer. um die Kosten für den Umgang mit Usenet zu tragen.

Ich denke, es gibt jetzt mehrere Usenet-Hosting-Unternehmen, die sich hauptsächlich um die Binärdateien kümmern. Es gibt auch einige Server, die einen Feed der Nur-Text-Gruppen bereitstellen

Der Vorteil von USENET-Clients besteht darin, dass sie anstelle der Grenzen von Webforen eine vollständig mit Threads versehene Schnittstelle bieten und Sie sich nur mit einem Ort und nicht mit jeder Website verbinden müssen.

Danke für die Antwort. Mir scheint, dass das legitime Posten um 2004/5 aufgehört hat, gibt es dafür einen Grund? Auch die Universitäten, an denen sich diese Archive befanden, wie wurde das überhaupt zusammengestellt?
Es hängt von der Gruppe ab, einige gehen immer noch, wenn auch mit viel weniger Lautstärke. Ich denke, der Grund war Spam und all die coolen Leute wollten in Webforen sein. Auch die Anzahl der Trolle, die eine gut gepflegte Kill-Datei benötigen, um die Nachrichten loszuwerden.
Um 2004/5 wandelte sich USENET aufgrund seiner Verwendung durch Urheberrechtsverletzer und Sexualkriminelle zu einem kryptografisch sicheren binären Verteilungssystem. Etwa zur gleichen Zeit wurde USENET radikal anfällig für Spam-Angriffe durch Bots. Das Thema kuratierte Natur der offenen Diskussion durch intellektuelle Minderheitengemeinschaften wurde von einem gehosteten Forum übernommen.
Das ist die Antwort. Wenn Sie in den richtigen Newsgroups nachsehen, finden Sie ziemlich viele Posts von einem jungen (damals) TED. Dort habe ich damals all meine verrückten, sinnlosen Internet-Aufsatzfähigkeiten verfeinert.
@RewanDemontay - ein großer Teil des Niedergangs des Usenet war auf "The September that Never Ended" zurückzuführen , als AOL begann, seinen Benutzern Zugang anzubieten. Das war 1993.
@LaconicDroid ist das Usenet für weitere 10 Jahre nicht wirklich gewachsen. Der ewige September hat vielleicht die Qualität verringert, aber nicht den Nutzen.
@mmmmmm - Ich sprach über den Qualitätsverlust von Inhalten, da hochwertiger Inhalt der einzige Grund war, warum ich ihn Mitte der 80er Jahre verwendet habe.
Der List Server bei Brown hat einiges davon auch auf Mailinglisten übertragen. Soweit ich mich erinnere, gab es einmal ein Absprungproblem.
Beachten Sie auch, dass die meisten Internet-Etiketten und -Jargone (z. B. "lol") aus dem Usenet stammen. Es wurde von Mainstream-Mitarbeitern in Messenger-Apps und dann in sozialen Medien übernommen. Usenet-Textgruppen sind ein großer Teil der Internetgeschichte.

Ein Punkt, den die anderen bisherigen Antworten vielleicht nicht deutlich genug machen, ist die damalige Dezentralität des Internets .

Wir haben uns an die Idee gewöhnt, dass jede Art von Inhalt an einem zentralen Ort zugänglich ist (ob es sich um einen einzelnen Server, ein ganzes Rechenzentrum oder sogar eine Gruppe von Rechenzentren handelt, die alle über eine einzige Adresse oder Webseite zugänglich sind). Aber so hat das Internet nicht angefangen, noch war es in den 90er Jahren, als das Usenet noch sehr beliebt war.

Tatsächlich entwickelte sich das Internet aus militärischen Systemen, die speziell darauf ausgelegt waren, sich nicht auf große zentrale Server mit Single Points of Failure zu verlassen. Und ein Teil dieser Denkweise blieb bestehen.

Usenet-Nachrichten lebten nirgendwo auf einem einzigen Server, weil es keine Organisationen gab, denen man vertrauen konnte, dass sie einen solchen Server langfristig zuverlässig betrieben – schon gar nicht, ohne den Benutzern das Privileg in Rechnung zu stellen. Und selbst wenn, könnten Sie sich nicht darauf verlassen, jederzeit zuverlässig darauf zugreifen zu können. Und selbst wenn Sie könnten, könnte dieser Zugriff langsam und/oder kostspielig sein.

Also entwickelte sich das Usenet dezentralisiert: Nachrichten wurden schubweise von Maschine zu Maschine gesendet und landeten auf dem nächstgelegenen Server, von dem Sie sie auf einmal abholen konnten – und sie dann in aller Ruhe offline lesen konnten.

Das ist ein sehr effizienter Ansatz: Die Übertragungen werden über direkte Verbindungen durchgeführt, vielleicht wenn sie weniger ausgelastet (oder billiger) sind; Nachrichten müssen nur einmal übertragen werden, unabhängig davon, wie viele Benutzer sie letztendlich lesen werden; und das Auslesen kann ohne weitere Kosten offline erfolgen. (Ja, der Internetzugang konnte damals teuer sein. Ich erinnere mich, dass ich den DFÜ-Zugang benutzte – für den Minutengebühren anfielen, obwohl es sich um eine lokale Nummer in Großbritannien handelte – und dass ich sorgfältig auf die Uhrzeit achten und so viel wie möglich übertragen musste einmal, damit ich es nach dem Trennen verwenden könnte.)

Mit dem Aufkommen von nicht getakteten, immer verfügbaren Internetverbindungen (die nicht Ihre einzige Telefonleitung belegt haben!), schnellen Übertragungen, hochzuverlässigen Rechenzentren und Geschäftsmodellen, die alle Arten von Diensten ohne direkte Gebühren (abzüglich der indirekte Kosten im Zusammenhang mit Werbung, Nutzung Ihrer Daten, Malware, Zensur…), haben sich die Dinge enorm in Richtung zentralisierter Dienste verlagert. Und das hat natürlich Vorteile (sowie einige Nachteile).

Sie können eine ähnliche Verschiebung bei einer anderen Nicht-Web-Anwendung im Internet beobachten: E-Mail. Früher wurden E-Mails über eine Reihe von E-Mail-Servern gesendet (einige gehörten zu großen Organisationen, andere weniger), aber sie landeten auf Ihrem Computer, unabhängig davon, ob es sich um ein Konto auf einem System Ihres Arbeitgebers oder Ihrer Universität handelte , oder Ihren eigenen Mikrocomputer/PC. Dort würde die Post wohnen; der einzige Ort, an dem es zugänglich wäre. Einige Leute verwenden immer noch E-Mail-Clients, die auf diese Weise funktionieren, aber die meisten verwenden jetzt stattdessen Webmail, wobei die E-Mails auf großen Servern gespeichert werden, die Ihrem ISP, Arbeitgeber, Ihrer Bildungseinrichtung oder einer unabhängigen Organisation gehören – auf die von überall mit einem mit dem Internet verbundenen Internet zugegriffen werden kann Browser, aber nicht mehr unter Ihrer Kontrolle.

Sogar das frühe Web war viel weniger zentralisiert; Die meisten Websites waren klein, und es war schwierig genug, sie zu finden, sodass sie sich in Webringe und Linkseiten organisierten.


Um die Frage zu beantworten: Usenet-Nachrichten lebten physisch auf allen News-Servern, die die relevante Newsgroup führten, zusammen mit allen Clients, auf die die Leute sie heruntergeladen hatten. Diese Server befanden sich hauptsächlich an Universitäten, Bell Labs-Standorten, Unix-bezogenen Unternehmen und ISPs.

Normalerweise verwende ich keinen zentralen http/imap-Server (z. B. gmail) zum Lesen von E-Mails, obwohl ich meine E-Mails vom Pop/imap-Server des Internetanbieters herunterlade. Obwohl ich das auch übernehmen könnte! Einschließlich der Erstellung eines eigenen Nttp-Servers mit Spool und dem Abrufen eines Feeds von irgendwo.
Das ist etwas OT, aber die größte Änderung in "The Internet" war die Größe des Inhalts, sowohl eMail als auch Web. Ich habe keine Details, aber ich schätze, die meisten Usenet-Textnachrichten waren im Bereich von 1 bis 5 Kbyte. Heutzutage sind E-Mail-Inhalte (Danke HTML und Java) im Megabyte-Bereich keine Seltenheit. Das Duplizieren dieser großen Nachrichten auf allen NNTP-Servern ist einfach nicht machbar.
@ dave58 In der Tat. Wenn ich mich recht erinnere, hatten die meisten frühen Webseiten tatsächlich eine ähnliche Größe! Mit wenig oder keinem eingebetteten Javascript, ganz zu schweigen von CSS oder Einbettungen, würde selbst ein 20-KB-Bild den HTML-Code selbst in den Schatten stellen. Browser haben oft eine Option, Bilder nur dann zu laden, wenn sie aus Geschwindigkeitsgründen angeklickt werden. Wie sich die Zeiten ändern – heutzutage können Sie nicht einmal verhindern, dass Multi-MB- Videos geladen und abgespielt werden …
FWIW, große Plattformen sind immer noch unabhängig von einzelnen Servern; Der Unterschied besteht darin, dass sie Eigentum und Verwaltung einzelner Einheiten (Korps) sind.
@AsteroidsWithWings Einverstanden. (Und ich habe den Wortlaut leicht angepasst, um ihn anzupassen.) Der Punkt ist, dass es einen einzigen Zugangspunkt gibt (den Hostnamen und den Port), also sieht es aus wie ein einzelner Server, auch wenn dies nur die Vorderseite für mehrere Server sein kann, oder sogar mehrere Rechenzentren.
Das Usenet sieht auch für die Hauptgruppen wie ein einzelner Server aus. Sie erhalten die gleichen Nachrichten, egal bei welchem ​​Server Sie sich anmelden (gut, einige entfernen Spam in unterschiedlichem Maße).
Ein Punkt, den selbst Ihre Antwort (noch!) Nicht anspricht, ist, dass die meisten Usenet-Server auch lokale und regionale Newsgroups hatten - Diskussionen im Zusammenhang mit der Universität, der Stadt, in der sich die Universität befand, usw. Das Posten in den globalen Newsgroups war (relativ) selten in dieser Kultur und manchmal verpönt - Warnmeldungen von früher Software über die enormen verteilten Kosten, die entstehen, wenn Sie in eine globale Newsgroup posten usw. Viele lokale Nachrichten/Gruppen wurden nie von den Diensten gesehen, für die später Nachrichten archiviert wurden zukünftigen Generationen - sie waren so kurzlebig wie ursprünglich beabsichtigt.

Neben der relativ geringen Größe der Nachrichten und der (im Vergleich zu heute) relativ hohen Qualität der Postings (die mit dem Aufkommen des Ewigen September stark zurückging), vermisse ich an Usenet-Newsgroups am meisten die Einfachheit und Bequemlichkeit beim Lesen.

Mit einer einzelnen Textkonfigurationsdatei, die Gruppen in meiner bevorzugten Reihenfolge auflistet, würde ein einzelner "trn" -Befehl:

  • Zeigen Sie eine Liste der Top-Gruppen und die Anzahl der Artikel an, die ich noch nicht gesehen habe.
  • Durch Drücken der Leertaste wird eine Liste der obersten ungelesenen Elemente in der ersten Gruppe angezeigt.
  • Durch Drücken der Leertaste wird das erste Element angezeigt.
  • Und so weiter, bis die Liste erschöpft war (dh in die unterhaltsameren oder alberneren Gruppen gelangte) oder man "q" tippte.

Und ich sah nicht nur die Dinge, die ich vorher nicht gesehen hatte, alles wurde in chronologischer Reihenfolge präsentiert, vom ältesten zum neuesten (was für ein Konzept!).

Und nicht nur das, Artikel, die frühere Postings zitierten, verwendeten Top-Quotes, was es einem nicht nur ermöglichte, alles in der Reihenfolge zu lesen, in der es geschrieben wurde, sondern zwang den Poster, alle irrelevanten Teile des Artikels zu löschen, den sie zitierten.

Wenn man nicht antworten wollte, konnte man alles in Ordnung sehen, indem man nichts anderes tat, als die Leertaste zu drücken. Und mit „alles“ meine ich alles; man musste nicht zwischen FaceBook und Instagram und Twitter und … hin und her springen. Und keine Werbung .

Dazu gehören auch sehr lokale Newsgroups, etwa für den CS123-Kurs jeder Universität oder die einzelnen Abteilungen jedes Unternehmens. Unternehmen könnten das, was heute als Gruppenmeetings betrachtet wird, asynchron durchführen, wobei jeder an seinem eigenen Schreibtisch sitzt, bei Bedarf antwortet und das Ganze vielleicht Stunden später liest, wenn es ihre eigentliche Arbeit nicht beeinträchtigen würde .

Seufzen!

Liebe Emily Postnews enthält sehr ironische Regeln für das Posten von Nachrichten und ist sehr lesenswert.