Wie wird ein Foto in den nächsten 30 Jahren aussehen?

Früher hatten wir nur Schwarz-Weiß-Fotos, dann bekamen wir Farbfilme zum Fotografieren. Zu Beginn des 21. Jahrhunderts wurden digitale Fotos immer beliebter, und allein die Anzahl der Pixel nahm rapide zu.
Wie sieht in 30 Jahren ein typisches Foto aus? Hat es viel mehr Pixel als moderne Digitalfotos? Oder hätte es andere Verbesserungen gegenüber der aktuellen Fototechnologie?

Die Filmauflösung und Lichtempfindlichkeit hat sich im Laufe der Zeit ebenfalls erhöht. Glasplattenfotografen von vor einem Jahrhundert wären überglücklich gewesen, Zugang zu Filmen zu haben, die wir in den letzten Jahren als „langsamen“ (niedrigen ISO) Film bezeichneten. Gleiches gilt für Filme mit der Lichtempfindlichkeit von High-ISO-Filmen. Daran ändert auch die Digitalfotografie nichts; alles, was es wirklich ändert, ist das Aufnahmemedium.
"Es ist ein HDTV, es hat eine höhere Auflösung als die reale Welt!" - Futurama
Diese Frage gehört zum Thema. meiner bescheidenen Meinung nach
Ich denke, in 30 Jahren könnten Geräte wie die HoloLens eine Sache sein. Damit können Sie Ihre Fotos im Wesentlichen auf jeder gewünschten Oberfläche ansehen . Ihre Wände oder sogar Ihre Fenster (Wortspiele beabsichtigt).
Fotografien neigen dazu, mit zunehmendem Alter an Farbe zu verlieren. Oft werden Ecken aufgrund von falscher Handhabung verbogen oder gerissen. Besonders grobe falsche Handhabung kann zu Flecken durch Fingerabdrücke und sogar zur vollständigen Auflösung des chemischen Materials führen, aus dem die Farbe des Papiers besteht. Gelegentlich werden Fotos aufgrund schlechter Lagerbedingungen durch Wasser, Hitze oder tierische Schädlinge beschädigt. Seltene Umstände führen manchmal dazu, dass Fotos am Glas des Rahmens haften, in dem sie sich befinden, was zu schweren Schäden führt, wenn Sie versuchen, sie zu entfernen. Oh, Sie meinten Bildtechnologie-Spezifikationen . Es tut uns leid. [/Troll]
Beliebt "werden"?
Wir haben bereits Kameras mit einem 3D-Tiefenfeld. Ich kann mir vorstellen, dass diese in 30 Jahren auf einem iPhone-ähnlichen Gerät verfügbar sein werden.
Wir haben bereits vor mehr als einem halben Jahrhundert Farbe hinzugefügt, also wäre das einzige, was noch übrig wäre, um Fotos repräsentativer für die Realität zu machen, als sie derzeit sind, 3D zu machen, wir waren wahrscheinlich schon länger in der Lage, 3D-Fotos zu machen, als wir es konnten Farbige machen wir aber nicht so offensichtlich besteht kein Interesse daran und somit ist es mehr als marginal unwahrscheinlich, dass wir jetzt damit anfangen.. Fazit: Es wird sich nicht ändern, ein Foto ist ein Foto und ist weit mehr wahrscheinlich als nicht so bleiben.

Antworten (17)

30 Jahre sind nicht viel, um die Fotografie drastisch zu verändern, es ist im Grunde dasselbe seit ihren Anfängen. Farbe ist ein einfacher Schritt, digital ist, weil jetzt alles digital ist. Hologramme sind da draußen, aber nicht praktisch, nicht nur, weil uns die Technologie fehlt, aber es ist nicht sehr praktisch.

Die einzige Verbesserung, die ich in 30 Jahren sehen konnte, ist, dass die Stereographie häufiger wird, dieser Trend hat bereits begonnen. Ich würde sagen, mehr Kameras werden mit mehreren Objektiven ausgestattet sein, um Stereobilder zu konstruieren. Wahrscheinlich würden 3D-Bildschirme ohne Brille allgemein verfügbar werden. Damit könnte die fast 100 Jahre alte Technik endlich zu einem Höhenflug werden.

3D Screens ohne Brille gibt es bereits für Mobilgeräte – der Nintendo 3DS ist bereits mit dieser Technologie ausgestattet!
Ich habe noch nie davon gehört, könntest du die geben, die dir das erlauben?
3DS hat eine begrenzte 3D-Fähigkeit (400 x 240 pro Auge, fester Abstand und Winkel), ich habe mich gefragt, ob es 3D-Bildschirme für moderne Mobiltelefone oder Tablets gibt.
Die Möglichkeiten für den 3DS sind begrenzt, weil Nintendo sich dafür entschieden hat, nicht weil wir nicht die Technologie haben, um es besser zu machen. Dass Nintendo es auf eine Konsole schlagen kann, bedeutet, dass jeder es auf alles schlagen kann – es ist nur eine Frage des Interesses.
Hier ist zum Beispiel eine Liste mit 3D-fähigen Smartphones , die eine ähnliche Technologie wie 3DS verwenden, um zu funktionieren!
Danke, ich habe etwas sehr Interessantes gelernt. Die Weiterentwicklung dieser Technologie ist definitiv ein Weg zu gehen.
Das "neue" 3DS kann auch Ihr Gesicht verfolgen, sodass der 3D-Effekt auf Ihre Augen zeigt, sodass Sie es nicht in einer bestimmten Position halten müssen.
Zum Thema 3ds hat es auch eine 3d-Kamera (zumindest die neuen).
@JMac Es hat seit seiner Einführung ein stereoskopisches Paar nach vorne gerichteter Kameras. Damit aufgenommene "3D"-Bilder werden eigentlich nur als zwei separate Dateien gespeichert, aber wenn Sie den Betrachtungswinkel nicht ändern möchten, gibt es kaum einen Unterschied zwischen diesen und 3D-Modellen.
@wizzwizz4 Ja, ich denke, "3D-Kamera" ist eine zu starke Vereinfachung / falsche Bezeichnung.
Aber wir haben seit etwa 75 Jahren die Möglichkeit, 3D-Fotos zu machen, z. B. en.wikipedia.org/wiki/View-Master . Die Sache ist die, dass sie für die meisten Anwendungen nicht genug hinzufügen, um die Mühe wert zu sein.
@TSar Erwähnenswert ist, dass ein erheblicher Teil der 3DS-Benutzer die 3D-Funktionen aktiv ausschaltet, weil es sie stört.
@ jpmc26 Ich bezweifle es nicht - mein SO tut es. Aber noch einmal, viele Leute lügen von vornherein nicht über 3D-Effekte, also ...

neuartige Durchbrüche

Wenn Sie nach einem weiteren Fortschritt suchen, den Sie in Ihrer Geschichte verwenden können, ziehen Sie Lichtfeldkameras , 3D-Bilder mit einer Linse oder Sensoren in Betracht, die auf festen Beugungsgittern oder Hologrammen basieren, die überhaupt keine Linsen benötigen, aber flach wie Käferaugen sind .

Verbesserungen gegenüber herkömmlichen Kameras

Sensoren nähern sich hinsichtlich der Empfindlichkeit der Quantengrenze. High-End-Sensoren fügen darüber hinaus sehr wenig Rauschen hinzu. Ich sehe die große teure Seite der Dinge, die sich in billigere Geräte bewegen.

Ein herkömmliches Objektiv muss jedoch groß sein und mit der Sensorgröße skalieren. Daher werden sehr kompakte oder flache Geräte anfangen, „bahnbrechende“ Objektive auf etwas größeren Sensoren zu verwenden, da die Sensorgröße der ultimative Qualitätsbegrenzer ist.

Anzeige und Präsentation

Wir haben bereits gesehen, dass das Konzept von ein paar Sekunden Animation eine eigene Nische einnimmt. Es kann zum Stil eines Porträts werden, diese Idee zu verwenden, um den Betrachter aktiv anzulächeln oder was auch immer.

Wie werden Bilder präsentiert? Ein animiertes Bild erfordert eher einen Bildschirm als dummes Papier. Aber wie viele Bilder drucken und aufhängen? Die wenigen dauerhaften Wandrahmen könnten sehr wohl Vollbildschirme sein! Aber auch heute noch werden die meisten Bilder auf Geräten geteilt und nicht gedruckt.

Wenn ich ein großes gerahmtes Bild der Golden Gate Bridge kaufe, um es an die Wand zu hängen, ist es vielleicht kein statisches Bild, sondern ändert sich mit der Tageszeit, dem Wetter und den Jahreszeiten.

Vielleicht der dedizierte Rahmen, der „Hallo, Oma!“ zeigt. wird alle paar Tage automatisch aktualisiert, wenn das Kind vor dem Abendessen daran erinnert/aufgefordert wird, „Großmutter Hallo zu sagen“.

Neben einer verbesserten Technologie zur Bilderfassung sehe ich daher eine Weiterentwicklung der Technologie und der Produkte zur Verwaltung und Anzeige dieser riesigen Datenmenge, die generiert wird.

Ich muss Lichtfeldkameras lieben. Ich verstehe immer noch nicht, wie die selektive Schärfentiefe funktioniert.
@joe es zeichnet einfach durch ein Linsenarray mit einer viel höheren Auflösung als das endgültige Foto auf, berechnet dann, welche Sensoren beim Zusammensetzen von einem bestimmten Punkt im Raum getroffen werden, und mittelt diese, um die Pixelwerte zu erzeugen. Auf diese Weise können Sie auch nachträglich eine kleinere Blende simulieren.
@JanDvorak, nur eine viel höhere Auflösung zu haben, bringt nichts.
Das Linsenarray tut es jedoch
Ja, das Linsenarray ist nicht das, was im zweiten Kommentar zu diesem Beitrag beschrieben wird. Entscheidend für den Punkt ist die Aufnahme von Licht aus verschiedenen Richtungen, nicht "viel höherer Auflösung". Ich denke, es braucht ein Diagramm, um es zu erklären; Vielleicht eine ausführliche Antwort auf Fotografie , wenn die Wikipedia-Artikel nicht klar sind.
Mit Lichtfeld erfassen Sie nicht nur, wo das Licht auf die Linse trifft, sondern auch die Richtung, aus der das Licht kam, als es auftraf. Sie tun dies mit einer Reihe von Mikrolinsen, von denen jede ein eigenes kleines Foto erzeugt. Wenn Sie eine selektive Schärfentiefe erzielen möchten, erstellen Sie eine virtuelle Linse (mit all ihren Elementen) und leiten alle diese Strahlen durch die virtuelle Linse, wobei Sie die genaue Physik modellieren, die dazu führt, dass die Schärfentiefe überhaupt auftritt.
Das Schöne daran, so darüber nachzudenken, ist, dass Sie die Komplexität der Aufnahme eines Lichtfelds von der Komplexität trennen, warum unsere Fotos überhaupt Tiefenschärfe haben (was meiner Meinung nach an und für sich schwierig ist).
Wenn Sie an ein Porträt denken, mit dem Gesicht einer Person aus der Nähe und einem verschwommenen Hintergrund ... können Sie bei Lichtfeldfotos dies nach der Aufnahme anpassen, sodass Sie sich auf den Hintergrund konzentrieren und stattdessen den Vordergrund verschwommen sehen können.
@Innovine: Aber warum willst du, dass irgendetwas verschwommen ist? Es sei denn natürlich, Sie denken, es ist künstlerisch, und das können Sie mit Gimp tun. (Oder Photoshop)
@jamesqf Aus einigen Gründen ... meistens künstlerisch, da es hilft, das Interessengebiet zu definieren. DoF ist nicht dasselbe wie eine Gaußsche Unschärfe, obwohl es nahe genug aussehen könnte, um unerfahrene Augen zu täuschen. Der Grad der Unschärfe basiert auf der Tiefe. Warum solche Dinge mit Photoshop bearbeiten, wenn Sie es zuerst an der Quelle richtig machen können? Sie sind auch sehr eingeschränkt darin, wie Sie einen unscharfen Hintergrund mit Photoshop schärfen würden. Außerdem werden wir in Zukunft wahrscheinlich viel mehr Dinge in 3D betrachten, dann kann der DoF in Echtzeit angepasst werden, je nachdem, wohin Sie schauen, indem Sie die Augen des Betrachters verfolgen.
@Innovine: Ich glaube du hast meine Frage falsch verstanden. Was ich frage, ist warum,. Wenn Ihre Kamera im Wesentlichen eine unendliche Schärfentiefe aufzeichnen kann, würden Sie sich dafür entscheiden, Bilder den begrenzten DOF aktueller Kameras vortäuschen zu lassen?
Ohne DoF werden die Leute, die das Bild betrachten, verwirrt, wir sind für DoF fest verdrahtet, ohne DoF sieht das Bild flach aus, wie eine Zeichnung. Sogar gute Maler simulieren DoF in ihren Gemälden.

Video

Während es mehr Pixel, bessere Fokussierung und so weiter geben wird, denke ich, dass die große Veränderung das Ende des Standbilds sein wird.

„Warum bewegen sie sich nicht?“, werden Jugendliche beim Betrachten alter Fotos fragen.

Abhängig von der Art der Fotografie können Stills (insbesondere aus UX-Sicht) auch in Zukunft sehr nützlich sein. Stellen Sie sich ein Web voller Blogs, Nachrichten-Websites und Anzeigen vor, die mit bewegten Bildern gefüllt sind, ich würde in 5 Minuten verrückt werden.
Im Laufe der Zeit haben die älteren Generationen die Jüngeren immer für verrückt gehalten, wie die Älteren sich derzeit fühlen, aber das ist normalerweise nicht der Fall, nur eine unterschiedliche Perspektive und Erziehung. Ich denke also, dass dies immer noch möglich sein könnte, nur nicht vollständig, da ich verstehe, dass dies immer noch ein objektives Problem sein könnte, wie zum Beispiel zu viele Informationen auf einem Bildschirm, aber dann können MMORPG-HUDs mit Addons dazu neigen, eine Fülle von Informationen zu haben. Man kann die Aufmerksamkeit bei Bedarf automatisch steuern, anstatt den Inhalt verstecken oder ändern zu wollen, wahrscheinlich abhängig von der Person.
@Rolfツ Schau dir nur an, wie sich das Website-Design von den 90ern bis heute verändert hat. Bye-bye Geocities-Seiten mit Gifs überall und Festzelten und blinkendem Text und so weiter ...
Aber was genau fügt Bewegung den meisten Fotos hinzu, sagen wir Ihre Urlaubsaufnahmen vom Grand Canyon? Und natürlich machen die meisten Digitalkameras (und Telefone) jetzt Videos, aber ich benutze es so selten, dass ich RTFM verwenden muss, wenn ich will.
Da die Fotografie die Malerei nicht getötet hat, wird das Video die Fotografie nicht töten.
Wir haben vielleicht bewegte Harry-Potter-Bilder, aber Standbilder werden in vielen Fällen immer noch nützlich sein, insbesondere in der Kunst der Standbilder.
Wir haben Videos schon seit vielen Jahren, und obwohl Sie jetzt ein Video als Ihr Facebook-Profilbild festlegen können, erwartet niemand, dass sich Fotos ständig bewegen.
@errantlinguist: Sag das Garrison Keillor :-)

Lichtfeld-/plenoptische Fotografie

Vorführung der Lichtfeldfotografie

Lichtfeldfotografie erfasst Informationen über das Lichtfeld, das von einer Szene ausgeht; das heißt, die Lichtintensität in einer Szene und auch die Richtung, in der sich die Lichtstrahlen im Raum ausbreiten.

Lichtfeldkamera bei Wikipedia

Die Lichtfeldfotografie ermöglicht es Ihnen, abhängig von den Besonderheiten des Geräts, das das Bild aufgenommen hat, Bilder mit variabler Schärfentiefe sowie Hologramme anzuzeigen. Diese Technologie ist auch die Grundlage ( laut nVidia 1 , 2 ) für Virtual-Reality-Displays der nächsten Generation, da Sie sich auf die Details konzentrieren können, auf die Sie sich konzentrieren möchten, um ein realistischeres Erlebnis zu erhalten.

Die Technologie wird derzeit nur sehr begrenzt eingesetzt, da sie sowohl in Bezug auf Geld als auch auf die Speicherung von Informationen sehr teuer ist. Ein einzelnes Standbild kann weit über 50 GB wiegen.

Wenn die Dinge gut laufen, können Sie davon ausgehen, dass diese Technologie in 30 Jahren alltäglich sein wird.

Ich erwarte mehr Farbtiefe. Derzeit müssen wir eine HDR-Nachbearbeitung durchführen, um ein anständiges Ergebnis aus einer Szene mit großem Kontrast (Himmel/Boden, Innen/Außen usw.) zu erhalten. Mehr Bits an Intensitätsdaten ermöglichen eine solche Verarbeitung aus einem einzigen Bild.

Ich nehme an, Sie würden billigere Geräte mit hoher Farbtiefe sagen, weil wir eine Maschine haben, die in der Lage ist, die Anzahl zu erfassen, die ein Mensch 32-mal sehen kann: 9 Bits / Kanal könnten problemlos alle Farben abdecken, die ein Mensch sehen kann. 8 Bit reichen für die meisten Zwecke völlig aus. Eine höhere Bitrate bedeutet jedoch, dass es möglich ist, den Weißabgleich nach der Aufnahme des Fotos ohne merklichen Verlust anzupassen. Es gibt Kameras, die sogar 16 Bit verarbeiten können, obwohl sie nicht billig genug sind, um üblich zu sein.
@CemKalyoncu Du verfehlst den Punkt. 9 Bits/Kanal decken leicht ab, was das menschliche Auge gleichzeitig wahrnehmen kann . Wenn sich unsere Augen von innen nach außen bewegen, verschieben sie sich schnell. Das Foto kann es nicht. Wenn Sie ein Bild haben möchten, mit dem Sie sowohl von innen als auch von außen sehen können, benötigen Sie viel mehr als 9 Bit, wenn Sie dies auf einen Schlag tun möchten. Wir verwenden derzeit mehrere Schnappschüsse und eine HDR-Merge-Routine, aber das ist nur in einer statischen Szene möglich.
Das habe ich bereits gesagt: "Durch die höhere Bitrate ist es jedoch möglich, den Weißabgleich nach der Aufnahme ohne menschlich wahrnehmbaren Verlust anzupassen." Aber es gibt bereits Kameras, die Bilder mit 16 Bit aufnehmen können, ohne dass eine Zusammenführung erforderlich ist, aber sie sind ziemlich teuer, aber 12 Bit / Pixel sind bei DSLR-Geräten weit verbreitet, soweit ich das sehe (ich besitze keine zur Bestätigung), Sie Sie müssen der Kamera nur mitteilen, dass sie Bilder im RAW-Format speichern soll.
@CemKalyoncu Es hilft sicherlich - Sie können mit einer guten DSLR ein begrenztes HDR aus dem RAW-Bild machen. Das bringt Ihnen jedoch nur ein paar Stopps – und ich habe 12 Stopps verwendet, um mich auf ein HDR vorzubereiten (und stellte dann fest, dass ich es vermasselt hatte, als ich mich auf all diese Aufnahmen eingestellt hatte, und ich konnte es sowieso nicht!) Beachten Sie das Das Einstellen des Weißabgleichs ist völlig anders als das, worüber ich spreche. Einige zusätzliche Bits helfen dort, aber Sie brauchen nicht viele.

Allgegenwärtige Sensoren. Wenn ein Foto aufgenommen wird, ist es eine Sammlung aller Umgebungsdaten und Sensor-Feeds im Rahmen. Die Fotodaten selbst werden wahrscheinlich nur eine Definition dessen sein, was „im Rahmen“ ist.

Die Daten könnten so einfach sein wie wann, wo und Darstellungsbeschreibungen.

Ja! Ich wollte diese Antwort nur selbst hinzufügen: Die größte Änderung wird das Fehlen einer Kamera sein. Vor allem drinnen. Künstlerische Fotos würden Nachbearbeitungsfilter hinzufügen. Und der Rahmen selbst muss nicht starr sein – der Betrachter kann nach Belieben zoomen/rein/raus oder schwenken.
Sie werden wahrscheinlich auch in der Lage sein, die Schärfentiefe einzustellen
@WillNess Es wäre nett, einen künstlerischen Filter zu verwenden, um Mario Kart auf dem Foto von jemandem zu spielen.

Holographie

Vielleicht können wir in 30 Jahren nicht nur aus einer Perspektive aufnehmen, sondern alles in einem bestimmten Radius aufnehmen. Später können wir diese Aufnahme vielleicht so abspielen, dass wir sie aus jedem Blickwinkel betrachten können. Ein Porträt könnte vollständig dreidimensional werden, sodass sich der Betrachter um das Motiv herum bewegen und es sogar von hinten interaktiv betrachten kann.

Schließlich bedeutet Fotografie nur „Malen mit Licht“, Holografie ist nur der nächste Schritt.

Herkömmliche Kameras für Verbraucher können eine viel größere Farbpalette als nur das sichtbare Spektrum erfassen und speichern, und es wird Software zur einfachen Rot- oder Blauverschiebung Ihrer Bilder geben, ausgehend von einem Bild des lokalen WLANs am roten Ende, durch eine Wärmekarte, durch sichtbares Licht, weiter durch Ultraviolett bis zu einem Röntgenbild am blauen Ende.

Offensichtlich wären die oberen Bereiche viel dunkler, da höhere Wellenlängen von der Atmosphäre absorbiert werden, und die unteren Bereiche hätten eine geringere Auflösung, aber die Software-Interpolation wird in der Lage sein, bei allen Wellenlängen eine einigermaßen klare Sicht zu liefern.

Auch Software-Bildverarbeitung wird viel stärker zum Einsatz kommen. Einfache Bildbearbeitungen wie das Entfernen von Personen im Hintergrund oder das Erstellen von Action-Aufnahmen werden einfach und automatisiert.

Tatsächlich sind Consumer-Kameras mit einem Filter ausgestattet, um zu verhindern, dass IR zu den Sensoren gelangt. Die Konvertierung ist ziemlich einfach (für technisch Versierte :-)), zB extremetech.com/electronics/… Für UV müssten Sie meiner Meinung nach zu Quarzlinsen gehen, da Glas die meisten UV-Strahlen blockiert.

Ein 3D-animiertes fühlbares Duftgeräusch „GIF“ wäre der heilige Gral der Fotografie. Obwohl ich bezweifle, dass es immer noch einfach "Fotografie" genannt werden kann.

Wie wird das ausgesprochen?
schnappt sich Popcorn
Sie stellen fest, dass das ultimative Ziel der Fotografie darin besteht, sich zu vollständigen sensorischen Simulationen zu entwickeln. Aber Sie haben dann nicht darüber spekuliert, wozu das in einem Zeitrahmen von 30 Jahren führen könnte.
@Daniel "Fotojraphy"

Eingebettete Mikro-QR-Codes (oder andere Datendrucktechnologien) in einem für das bloße Auge unsichtbaren Maßstab/Spektrum. Diese Fotos von Harry Potter sind jetzt echt.

Standbilder hätten also eine Vielzahl von Daten, die auf die sichtbaren Pigmente gedruckt würden, die es Smart Tech ermöglichen würden, sie zu lesen und zusätzliche Merkmale auf dem Foto zu rendern. Das Foto kann auch eine eigene IP V.xx-Adresse und einen eigenen Online-Cloud-Speicher haben.

Smart Glasses würden also das Foto animieren oder spezielle Funktionen hinzufügen, wie aus dem Internet heruntergeladene Kommentare, Aufkleber oder andere Dinge. Ein Foto Ihrer Kinder beim Festfeuerwerk könnte das Feuerwerk auf der Rückseite animieren.

Intelligente Fotos sind jetzt wie gemeinsame Sammelalben oder Social-Media-Beiträge. Ein Besucher kann mit dem Foto verknüpfte Daten im Cloud-Speicher posten, die für ausgewählte Besucher sichtbar sein können. So haben die Fotos über dem Kamin jetzt einen eigenen Like-Zähler.

Sprach- und Videodaten können zum Zeitpunkt des Drehs oder später hinzugefügt werden. Tragbare Laserdrucker (fast alle Geräte haben sie jetzt) ​​könnten unsichtbare Codes auf sensible Bereiche des Fotos brennen oder die Daten in den zugehörigen Cloud-Speicher zu diesem Foto hochladen.

Da es bereits Versuche gibt, Blinde durch Signale ans Gehirn sehend zu machen, halte ich es für durchaus möglich, dass es in 30 Jahren keine Fotos mehr gibt; es wird Visionen geben . Das Betrachten eines Fotos bedeutet, die aufgenommene Szene genau so zu sehen, wie die Person, die sie aufgenommen hat, sie gesehen hat. Dazu müssen „nur“ Signale vom Sehnerv aufgenommen und dann im Gehirn einer anderen Person abgespielt werden.

Aber gilt das nicht gewissermaßen als Fotografie ? (Die technische Definition davon ist die Aufzeichnung von Licht, um ein Bild aufzuzeichnen, das dann später wieder angezeigt werden kann. Die Filmfotografie zeichnet das Licht auf einem lichtempfindlichen Film auf, die Digitalfotografie zeichnet das Licht auf, indem sie die Lichtstärke auf einem digitalen Sensor misst Vorschlag nimmt das Licht auf, indem er Impulse am Sehnerv misst. Gleiches Grundprinzip, nur die Implementierung unterscheidet sich erheblich.)
Nun, was auch immer die technische Definition ist, ich denke, was ich beschreibe, verbessert Wege, um eines der zentralen Ziele der Fotografie zu erreichen – andere sehen zu lassen, was sie nicht gesehen haben. In diesem Sinne könnte sich die Fotografie dahin entwickeln.
Und lassen Sie mich hinzufügen, dass der Hauptunterschied hier nicht in der Aufnahmemethode liegt (die technisch nicht viel schwieriger sein dürfte als die bestehenden in der Fotografie), sondern in der Betrachtungsmethode. Es ist qualitativ anders und erfordert höchstwahrscheinlich von den Zuschauern ein gewisses anfängliches gegenseitiges Training zwischen dem Gehirn und dem Übersetzungsgerät, wie bei ähnlichen bestehenden (sehr primitiven) aktuellen Schnittstellen.
Wir sehen nicht mit unseren Augen, wir sehen mit dem Gehirn. Durch das Aufzeichnen und Wiedergeben des optischen Stimulus können Sie nicht sehen, was der Rekorder gesehen hat.
@ths Anscheinend habe ich mich nicht klar genug ausgedrückt. Ich wollte nicht den optischen Reiz aufzeichnen, sondern das Signal, das vom Sehnerv zum Gehirn geht.
Ja, immer noch, das Bild ist eine Schöpfung unseres Gehirns, mit nur einem losen Anschein der Realität. Insbesondere konstruieren wir unseren Eindruck einer Szene aus mehreren Eindrücken mit Augenbewegungen dazwischen, gepaart mit unseren Vorurteilen (denken Sie an optische Täuschungen).

Immer mehr Megapixel-, vielleicht sogar Gigapixel-Kameras.

3D sicher und Modelle einzelner Objekte.

Das Spektrum wird weit über HDR hinausgehen, um möglichst alle Lichtformen abzudecken.

Die Kameras haben viele Verbesserungen wie Gesichtserkennung, super schwaches Licht, ohne dass eine Verschlusszeit von 5 Minuten erforderlich ist. Alle Funktionen, die wir heute haben, werden perfektioniert.

Tonnenweise neue Daten werden in EXIF, XMP oder wie auch immer das neue Ding heißen wird, eingebettet. Denken Sie an all die Sensoren in unseren Handys, noch mehr werden in unsere Kameras eingebaut.

Offensichtlich werden die Batterielebensdauer und die Speicherkapazitäten die Wachstumsrate begrenzen.

Sie werden wahrscheinlich einen AR-Bildschirm oder ein projiziertes extrapoliertes 3D-Bild haben. Zugegeben, das Original wird wahrscheinlich dem nahe kommen, was es heute ist. Ein flaches 2D-Bild, vielleicht mit höherer Auflösung, aber danach können wir alle zugehörigen Bilder und bekannten Umgebungsinformationen aufnehmen und ein High-Poly-Modell mit Texturen mit hoher Auflösung extrapolieren, die in den AR-Raum projiziert werden. Und das ist noch nicht alles, Sie können das Motiv wahrscheinlich bewegen, um es herumgehen usw., da das Bild, das Sie sehen, aus allen bekannten Bildern des Motivs, seiner Verwandten, der Umgebung, die Sie sind, extrapoliert wird Zugang haben, sowie ihr Verhalten und alle Physik-Engines, die in 3D-Kunst involviert sind ... Und hier ist die Sache, dies gilt auch für alle früheren Bilder, auf die Sie ebenfalls Zugriff haben.

Echographien von Baby.

Obwohl es sich bei der Technologie nicht um Licht an sich, sondern um Sonographie handelt, wird der beliebte Anlass, das Kind im Mutterleib "fotografieren" zu lassen, künftig keinen Besuch beim Sonographen mehr erfordern. https://en.m.wikipedia.org/wiki/File:3dultrasound_20_weeks.jpg

Sonographen werden auf Anfrage über handliche Echo-Technologie und die direkt in Ihr Smartphone integrierte Flavour-of-the-Day-App verfügbar sein.

Wie es bei aufstrebender Technologie oft üblich ist, werden die ersten Versuche Versionen mit niedriger "Auflösung" der Bilder sein, die Sie bei den Arztbesuchen erhalten, aber sobald sich Popularität und hohe Nachfrage zeigen, wird diese Technologie schnell weiterentwickelt und Echophotos werden alle aktuellen bei weitem überflügeln Ultraschallbilder.

Durch die Kombination traditioneller fotografischer Techniken und die Nutzung neuer Konzepte und der Ergebnisse der jüngsten medizinischen Forschung werden Wege entwickelt, wie Bilder auf verbesserte und nützliche Weise "gesehen" werden können - zum Beispiel durch die Anwendung dreidimensionaler Techniken wie Lithothane-Arbeit, mit jüngsten Entdeckungen der thermischen und mechanische Wandler ( https://www.nobelprize.org/prizes/medicine/2021/advanced-information/ ) – und möglicherweise durch Drucken mit einer anamorphotischen Projektion – könnte eine blinde oder sehbehinderte Person „lesen“ und „sehen“ und sich ein Bild machen durch Berührung.

Abgesehen vom Wechsel von Schwarzweiß zu Farbe haben sich Fotos seit ihrer Erstellung nicht allzu sehr verändert, nur die Technologie, mit der sie aufgenommen wurden, und das Medium, auf dem sie betrachtet werden.

Ich würde in Zukunft keinen allzu großen Unterschied zu den tatsächlichen Fotos selbst erwarten.

  • Das Auslaufen der Anzeige auf Papier - Bildschirme werden allgegenwärtiger und Sie werden wahrscheinlich alle Ihre Fotos in der "Wolke" haben und sie überall anzeigen können, wo es einen Bildschirm gibt. (von denen es jede Menge geben wird) - nicht nur Ihr Telefon.

Dies führt zu:

KI-Möglichkeiten

  • eine Erweiterung von Stig Hemmers Antwort - eine Möglichkeit, ein kurzes Video zu "schleifen", damit es nahtlos oder natürlich erscheint. Auf diese Weise können Sie ein Foto machen, das eigentlich ein kurzes Video ist, das Ihrem Foto etwas Leben einhaucht.

  • „Verschönerung“ – all jene Menschen, die Fotos von sich selbst hassen – KI wird in der Lage sein, ihre Gesichter zu „reinigen“, damit sie schöner aussehen, oder die Beleuchtung anpassen, um den „Kamera fügt 10 Pfund“-Effekt loszuwerden.

  • Fotobearbeitung - dh kann automatisch erfolgen und natürlich erscheinen. Wenn Sie sich beispielsweise aus einem Foto herausnehmen möchten, kann die KI die Beleuchtung aufräumen, den Hintergrund hinter Ihnen ausfüllen und realistisch aussehen lassen.

  • Zoom and Enhance - Das oft an den Pranger gestellte Filmklischee! Kann in irgendeiner Form existieren. Ja, ich weiß, dass Sie keine "Informationen hinzufügen" können. Aber die KI kann entweder die fehlenden Details anständig schätzen oder Zusammensetzungen aus Millionen anderer Fotos (z. B. von demselben Bereich oder derselben Person) verwenden, um zu schätzen, was dort in einem einigermaßen realistischen Maße vorhanden sein sollte.

Ich denke, dass der Einsatz von KI zur Flexibilisierung von Bildern alltäglich werden wird. Wir haben bereits KI, die ein paar Bilder aufnehmen und daraus eine komplette 3D-Umgebung extrapolieren kann. Wir haben KI, die ein Bild aufnehmen und die Auflösung „verbessern“ kann, um mehr Details zu sehen.

Daher können Bilder, die in 30 Jahren aufgenommen wurden, in 3D-Welten umgewandelt oder weiter gezoomt werden, und das alles zusätzlich zu den verbesserten Sensoren wie Lichtfeldern oder höheren Auflösungen. KI kann verwendet werden, um die Daten von mehreren Sensoren zu fusionieren, z. B. einem Weitwinkel- und einem Zoomobjektiv, oder sie kann Daten im Laufe der Zeit integrieren, während die Kamera durch eine Szene bewegt wird. KI wird es wahrscheinlich einfacher machen, die perfekten Momente auszuwählen, sodass das Foto, das Sie veröffentlichen, genau den Moment enthält, in dem alle gelächelt und nicht geblinzelt haben (oder sogar mehrere Momente für jede Person in der Gruppe kombinieren) oder Ihnen automatisch die perfekte Aufnahme liefert eines Athleten, der den Ball fängt. Oder die KI könnte die Touristen entfernen, um nur die Touristenattraktion selbst zu zeigen.

Sie könnten sich von https://www.youtube.com/c/K%C3%A1rolyZsolnai inspirieren lassen – er deckt viele dieser Arten von KI ab, sobald sie zum ersten Mal veröffentlicht werden, also wählen Sie vielleicht etwas daraus und extrapolieren Sie es in die Zukunft .