Warum werden die Begriffe DPI und PPI so missverstanden?

Es scheint, dass die Begriffe DPI und PPI von mehr Menschen missverstanden werden, als sie tatsächlich verstehen. Ich spreche nicht nur über den durchschnittlichen Joe, der versucht, einen Urlaubsschnappschuss zu drucken, ich spreche über Grafikdesigner, Fotografen und sogar den Typen, der meine lokale Druckerei betreibt – Leute, die es wirklich wissen sollten. Es verblüfft mich ehrlich gesagt.

Das häufige Missverständnis ist, dass eine höhere DPI-Zahl von Natur aus die Bildqualität verbessert und auch die Dateigröße erhöht. Was die Leute nicht verstehen, ist, dass es keine greifbare Auswirkung auf eine Bilddatei selbst hat, sondern nur auf ihre effektive Druckgröße (oder PPI, daher mein nächster Punkt). Fügen Sie die Tatsache hinzu, dass DPI und PPI in den letzten Jahren austauschbar geworden sind (nein, sie sind nicht dasselbe) ...

Warum werden diese Begriffe so missverstanden? (Bonus: Was kann man dagegen tun?)

Nicht sicher, ob dies wirklich verantwortbar ist, aber als Kommentar: Es gibt einige, die behaupten, dass diese Begriffe (und andere Dinge) falsch gelehrt werden. Siehe zum Beispiel dpiphoto.eu/dpi.htm . Viele Leute betrachten a/b = c als Mathematik, also werfen Sie einen Blick auf tvtropes.org/pmwiki/pmwiki.php/Main/EverybodyHatesMathematics und tvtropes.org/pmwiki/pmwiki.php/Main/WritersCannotDoMath (Warnung: TVTropes) Na und getan werden kann: Verbesserung der Bildung (die Lösung für die meisten, wenn nicht alle Probleme dieses Planeten)
Ich kann das Wort "effektiv" nicht finden. Können Sie ein Synonym oder die Bedeutung des Wortes angeben?
@Stan „Adjektiv: effektiv ‎(komparativ effektiver, superlativ am effektivsten) – Kann getan oder erreicht werden“ Eine Google-Suche nach „effektiv“ ergibt eine ganze erste Seite mit Definitionen.
Vielen Dank, ich Dummkopf. Ich habe ein paar Wörterbücher benutzt.
Keine Sorge, anscheinend ist seine Verwendung "archaisch", was mir nicht klar war.

Antworten (2)

Diese Begriffe werden aus zwei Gründen weitgehend missverstanden:

  1. Die meisten Menschen verstehen nicht wirklich, was Einheiten sind. Einheiten wurden den meisten durch Auswendiglernen beigebracht, und zwar ziemlich viele davon, ohne dass man sich intensiv mit dem Thema auseinandergesetzt hat. Da diese Art des Lernens für die meisten Zwecke für andere Einheiten funktioniert hat, denken sie, dass es auch für diese funktioniert.

    Daraus folgt, dass Menschen dazu neigen, nach einem guten Wert zu fragen und ihn einfach auszufüllen, ohne groß darüber nachzudenken. Das bedeutet, dass Faustregeln in Stein gemeißelt wurden, weil Einheiten im Allgemeinen so angegangen werden. Abgesehen davon, dass es einfacher ist und irgendwie funktioniert.

  2. Viele Benutzer haben kein intuitives Gefühl dafür, was ein Bild ist oder wie Bilder technisch dargestellt werden. Für die meisten Menschen ist ein Bild nur ein Haufen Quadrate, was in gewisser Weise richtig ist, wenn auch eine etwas falsch informierte Interpretation. Die technischen Aspekte sind unter dem Radar der Menschen.

    Daraus folgt, dass Menschen nicht verstehen können, wann der DPI oder PPI ein berechtigtes Anliegen ist und wann nicht. Die Praxis, dies manchmal als Auflösung zu bezeichnen, bindet die Informationen an die Qualität, was sie noch schlimmer macht. Für die meisten Menschen ist es einfach eine hochwertigere Sache mit besserer Qualität. Ein bisschen mehr Megaherz bedeutete früher bessere Prozessoren oder mehr Magapixel machen eine Kamera besser und so weiter.

Die erste davon ist sehr schwer zu kompensieren, wenn das Problem bereits in der Grundschule gesät wurde. Die zweite ist viel einfacher zu adressieren. Abgesehen davon, dass Apples Art, Bilder auf Retina-Screes zu verdoppeln, das Problem viel schlimmer und sichtbarer macht. Das Konzept, wo die Begriffe gelten, ist ziemlich einfach erklärt:

  • Die Definition, wie dicht Bildpixel angezeigt werden sollen, ist nur auf Geräten von Bedeutung, auf denen Sie den Rasterungsprozess und die Größe von Medien steuern können. Meist nur im Druck.

    Auf einem digitalen Display ist es etwas bedeutungslos, da Sie die Tonhöhe nicht wirklich beeinflussen können, es sei denn, Sie kaufen die Bildschirme tatsächlich für diesen Zweck. Es ist auch überflüssig, sich mit einem Umrechnungswert von Pixeln zu physikalischen Einheiten und zurück zu Pixeln zu befassen.

Was der Wert bedeutet, ist auch ganz einfach erklärt:

  • Wie groß soll die Ausgabe sein. Mit der Einschränkung, dass dies nur in Situationen gilt, in denen Sie das Medium kontrollieren können, was im Allgemeinen nur Druck bedeutet.

Es wäre viel einfacher, wenn die Leute in erster Linie daran denken würden, wie viele Pixel sie haben, und dann nur die Umrechnung in echte physikalische Einheiten verwenden würden, um zu überprüfen, ob Ihre Größe sinnvoll ist.

TL;DR

Zu viel Arbeit, um es einfacher zu verstehen, um es nur zu erraten. Denken Sie zuerst an Pixel und wandeln Sie sie dann bei Bedarf in physikalische Einheiten um. Wenn Sie sich auf den Druck vorbereiten müssen, konvertieren Sie Ihre gewünschte Größe in Pixel und denken Sie dann nicht mehr über diesen Wert nach.

Es gibt verschiedene Verwendungen von "Auflösung", da es sich um ein allgemeines Wort wie Maß handelt. Was messen Sie? Entfernungen? Zeit? Gewicht?
@Rafael ja natürlich, aber da die Leute die Dinge vereinfachen wollen und Einheiten nicht verstehen, ist das ein Problem. Ich glaube nicht, dass es ein so verwirrender Begriff wäre, wenn wir die Druckauflösung oder Druckdichte verwenden würden. Ich habe es einfach ganz übersprungen und nach der Druckgröße gefragt.
Punkte pro Zoll und Pixel pro Zoll sind unterschiedliche Einheiten, die unterschiedliche Dinge messen. „Zu starke Vereinfachung“ ist (oftmals) das, was Menschen dazu bringt, die Dinge falsch zu verstehen. :Ö)
@Rafael Mir ist eine solche Semantik bekannt, aber die nicht so eindeutige DPI ist unter vielen verschiedenen Umständen vollkommen gültig. Während PPI eine viel restriktivere Definition ist. Ich habe schon lange aufgehört, mich darum zu kümmern, und eine Kontroverse darüber einzubringen, hilft niemandem.

... erhöhte DPI ... nur die effektive Druckgröße.

Nein. Das ist PPI. DPI ist eine Druckerfähigkeitseinheit.

Ich denke, die Wurzel des Problems ist, dass die dpi-Zahl weithin bekannt ist, weil es eine Zeit lang ein wichtiges Thema war, einen Drucker zu kaufen. Diese Einheit wurde als Bildqualität übernommen.

Ein Scanner wurde nur als Eingabeteil desselben Ökosystems betrachtet. Die Leute dachten nur: "Oh. Ich habe hier ein Dokument abgelegt (Eingabe) und ich kann dort eine Kopie haben (Ausgabe) und dachten, die Einheiten seien gleich.

Von da an ging alles zur Hölle. Einige Softwaredesigner haben dpi falsch verwendet.

Und der einzige Ort, an dem Menschen diese winzige Einheit sehen können, ist ein Dialogfeld, das die Menschen nicht verstehen.

Bonus: Was kann man dagegen tun?

Derzeit bereite ich eine Reihe von Videos zu diesem Thema vor, die ich auf YouTube veröffentlichen werde. Es braucht Zeit, weil es etwas Animation hat. Sie werden sehr kurz sein. (Ich freue mich, wenn mir später jemand bei der Grammatik und Rechtschreibung für die Übersetzung ins Englische hilft)

"Nein. Das ist PPI" Das war irgendwie mein Punkt ... es gibt ein Missverständnis darüber, was die Begriffe bedeuten und dass sie dasselbe sind.
Ich würde mich sehr über diese Videos freuen und helfe gerne weiter!