HandysTechnik

Smartphone-Kameras: Diese Dinge entscheiden über die Fotoqualität

Zuletzt aktualisiert am 19. Mai 2023 von Marina Meier

Kameras sind komplexe Geräte mit komplizierten Komponenten, die zusammenarbeiten, um ein Bild zu erzeugen. Obwohl diese Komponenten (und ihre Spezifikationen) eine entscheidende Rolle bei der Bestimmung der letztendlichen Bildqualität spielen, ist die einzige technische Spezifikation, die in der Marketingliteratur Beachtung findet, die Megapixel-Zahl.

Aber reicht das aus, um eine informierte Entscheidung beim Kauf eines Smartphones zu treffen? Sind Megapixel das letzte Wort in Bezug auf Smartphone-Fotografie? Und welches ist das beste Android-Telefon für Smartphone-Liebhaber?

Ist die Megapixel-Zahl das einzige relevante Maß für Smartphone-Kameras?

Die Megapixel-Zahl ist nicht der einzige Faktor, den man beim Kauf eines Telefons beachten sollte. Obwohl die Megapixel-Zahl wichtig ist, beeinflussen auch andere Variablen die Bildqualität. Die Hardware, die Software und Ihre Vorlieben spielen eine Rolle bei der Wahrnehmung der Bildqualität. Um zu verstehen, warum die Megapixel-Zahl nicht das ultimative Kriterium für die Kameraqualität ist, hilft es zu wissen, wie Smartphone-Kameras funktionieren, was jede Komponente bewirkt und wie ihre Leistung gemessen wird.

Licht

Licht ist das wichtigste Element, das Kameras benötigen, um ein Bild zu erzeugen. Professionelle Kameras können kontrollieren, wie viel Licht sie empfangen, indem sie die Blende (die Öffnung zwischen den internen Mechanismen der Kamera und der Außenwelt) anpassen. Smartphones haben diese Luxusfunktion größtenteils nicht.

Blende

Vor einigen Jahren brachte Samsung einige Flaggschiff-Telefone mit variabler Blende auf den Markt. Abgesehen vom Huawei Mate 50 wollen die meisten Hersteller jedoch keinen Platz in ihren Telefonen dafür verwenden oder das Geld ausgeben, um diese Funktion einzubauen. Außerdem kann die Fotobearbeitung die meisten optischen Effekte erzeugen, die mit einer variablen Blende erzielt werden, sodass bis zum Fortschritt der Technologie kein großer Bedarf besteht.

Da eine variable Blende vorerst größtenteils ausgeschlossen ist und alles an mobilen Kameras miniaturisiert ist, muss so viel Licht wie möglich den Sensor erreichen. Daher sollten Sie die größtmögliche Blende haben. Die Blende wird in F-Stops gemessen. Je kleiner die Zahl, desto größer die Öffnung.

Brennweite

Ein weiterer wichtiger Aspekt ist die Brennweite der Kamera. Um die Brennweite zu verstehen, müssen Sie die Grundlagen einer traditionellen Kamera verstehen. Das Licht durchläuft das Kameraobjektiv, wo es zu einem Punkt fokussiert wird, bevor es auf den Film oder den Sensor projiziert wird. Bei dieser Anordnung ist die Brennweite der Abstand zwischen dem Sensor/Film der Kamera und dem Ort, an dem das Licht konvergiert. Je niedriger die Brennweite (gemessen in mm), desto weiter der Blickwinkel. Je höher die Brennweite, desto enger der Blickwinkel und desto größer die Vergrößerung.

Die Brennweite einer Smartphone-Kamera beträgt etwa 4 mm, aber diese Zahl ist aus fotografischer Sicht bedeutungslos. Stattdessen wird die Brennweite von Smartphones in Äquivalentwerten zu 35 mm angegeben. Welche Brennweite benötigen Sie bei einer Vollformatkamera, um den gleichen Blickwinkel zu erreichen?

Eine höhere oder niedrigere Zahl ist nicht unbedingt besser oder schlechter, aber die meisten Smartphones haben mindestens eine Kamera mit einem Weitwinkel und einer kurzen Brennweite, weil die meisten Menschen mit ihren Fotos möglichst breite Szenen einfangen möchten.

Objektiv

Das Objektiv ist grundlegend für die Brennweite der Kamera. Das Objektiv besteht aus mehreren Linsen (Elementen) und dem Linsenschutz. Die Aufgabe des Objektivs besteht darin, das Licht zu biegen und auf den Bildsensor zu fokussieren. Das Problem mit Licht ist, dass es sich nicht in einer festen Menge biegt. Rotes Licht und blaues Licht biegen sich unterschiedlich.

Siehe auch  Das Ende einer Ära: Asus stellt die Zenfone-Reihe ein

Mehrere Elemente sind entscheidend

Smartphone-Hersteller verwenden mehrere Elemente und Software, um diese Aberrationen und Verzerrungen auszugleichen. Keine Linse ermöglicht eine perfekte Lichtübertragung, daher gibt es immer einen geringen Verlust. Der Nachteil von mehr Linsen besteht darin, dass weniger Licht auf den Sensor fällt. Wo geht dieses Licht hin? Es wird reflektiert. Diese Reflexionen können in Ihren Fotos und Videos als Linsenflecken sichtbar werden.

Die Physik hinter Verzerrungen und Reflexionen ist kompliziert, was wahrscheinlich der Grund ist, warum die Hersteller von Mobiltelefonen in der Regel keine Informationen über ihre Objektive zusammen mit den anderen Kameradaten veröffentlichen. Sie müssen die Kamera verwenden, anstatt sich auf Metriken zu verlassen, um festzustellen, ob sie Ihren Ansprüchen genügt.

Eine Möglichkeit, die Objektivqualität einer Telefonkamera zu testen, besteht darin, nach einer Art chromatischer Aberration namens Lila-Rand-Effekt zu suchen. Dabei handelt es sich um einen purpurfarbenen Schimmer an den Kanten von Objekten mit hohem Kontrast. Dieser Effekt kann leicht übersehen werden und ist für die meisten Menschen nicht besonders wichtig, aber bessere Objektive verringern oder beseitigen diesen Effekt.

Wie wichtig ist der Kamera-Sensor?

Der Kamera-Sensor ist eine Hardwarekomponente, die optische Daten (Licht) in elektrische Informationen umwandelt. Die Oberfläche des Sensors ist mit Millionen einzelner Fotosites bedeckt, die auf der Intensität des empfangenen Lichts basierend ein elektrisches Signal erzeugen.

Je größer die einzelnen Fotosites sind (gemessen in Mikrometern oder μm), desto besser erfassen sie Licht. Sie können einen genaueren Wert wiedergeben, insbesondere in Situationen mit wenig Licht oder unterschiedlichen Lichtverhältnissen. Der Kompromiss bei größeren Fotosites besteht darin, dass weniger davon auf den Bildsensor passen. Daher ist ein größerer Sensor (gemessen in Bruchteilen eines Zolls) wichtig. Ein größerer Sensor ist fast immer besser.

Die Fotosites messen nur die Intensität des Lichts, nicht dessen Farbe. Um Farbinformationen zu extrahieren, sind die Bildsensoren mit einem Farbfilter (in der Regel einer Matrix aus Rot, Grün und Blau) überzogen. Die Anordnung dieses Farbfilterarrays ist dem Bildprozessor bekannt, der diese Farben auf die Luminanzwerte jedes Fotosites anwendet und diese Informationen dann zur Erzeugung eines vollständigen Farbbildes verwendet.

Die meisten Telefone verwenden einen Bayer-Farbfilter, der zu 50% aus Grün, 25% aus Rot und 25% aus Blaufiltern (RGGB) besteht. Der hohe Anteil an Grün liegt daran, dass das menschliche Auge grün besser wahrnimmt als andere Farben. Einige Telefone verwenden ein Filterarray, das diese Zahlen halbiert: 25% Grün, 12,5% Rot und 12,5% Blau, wobei die verbleibenden 50% ungefilterte Luminanzwerte lesen (RGBA). Diese Anordnung ist gut geeignet, um zusätzliche Luminanzdaten zu erfassen, geht jedoch zu Lasten der Farbdaten.

Einige Digitalkameras haben mit Cyan, Magenta und Gelb (CYYM) experimentiert, anstatt mit Blau, Rot und Grün, weil dadurch mehr Licht in die Fotosites gelangt als bei RGB-Filtern. Dies wurde jedoch aufgegeben, da es für die Software schwierig war, ein genaues Bild aus CMY-Daten zu rekonstruieren.

Huawei hat ein Telefon entwickelt, bei dem der traditionelle Bayer-Filter durch einen gelben Filter (RYYB) ersetzt wurde, um die Lichtaufnahme seiner Fotosites zu verbessern. Eine beliebte Alternative zum Bayer-Filter ist der Quad Bayer. Er verwendet das gleiche Muster wie der RGGB-Filter, wobei jedoch jede Farbe vier Fotosites anstelle von einer abdeckt. Diese Anordnung eignet sich gut für Low-Light-Fotografie und reduziert Bildrauschen.

Siehe auch  Samsung Galaxy S24 Ultra: Verlust der besten Kamerafunktion

Rechnergestützte Fotografie

Das letzte Element im Smartphone-Fotografie-Prozess ist der Bildprozessor. Hier wird die grundlegende elektrische Daten, die vom Fotosensor erzeugt werden, in ein korrektes Foto umgewandelt. Jeder Hersteller hat seine eigene Pipeline für diesen Prozess, aber viele Schritte sind bei allen Herstellern gleich.

Analog-Digital-Wandler (ADC): Jeder Fotosite auf einem Fotosensor misst die Intensität des einfallenden Lichts als analogen Wert. Der Wertebereich, den er registrieren kann (wie viele Schwarz-Weiß-Abstufungen), wird als Bit-Tiefe bezeichnet.

Das Ergebnis dieses Schrittes in der Pipeline ist ein Schwarz-Weiß-Bild. Demosaicing/Debayering: Sobald ein grobes Schwarz-Weiß-Bild erzeugt wurde, bestimmt der Bildprozessor die Pixelfarben basierend auf der Anordnung des Farbfilterarrays und der Intensität des von den entsprechenden und benachbarten Fotosites registrierten Lichts. Dadurch entsteht ein RAW-Bild.

Von hier an werden die Schritte des Bildprozessors subjektiver und können von einem Hersteller zum anderen erheblich variieren. Die folgenden Schritte sind in den meisten Bildverarbeitungspipelines enthalten.

Farbabgleich/Weißabgleich: Dies ist der Prozess der Anpassung der Intensitäten der Farben in einer Aufnahme. Eines der Ziele dieses Prozesses ist es, sicherzustellen, dass neutrale Farben wie Weiß und Grau korrekt erscheinen, weder zu warm noch zu kühl. Der Farbabgleich kann auch die Stimmung einer Aufnahme verändern und sie wärmer erscheinen lassen, aber wenn er zu weit geht, kann er das Foto farblich verändern.

Rauschunterdrückung: Alle elektronischen Signale sind Störungen (Rauschen) ausgesetzt, das sich in der Regel als fehlplatzierte, überhelle Pixel manifestiert. Fotos, die bei schlechten Lichtverhältnissen aufgenommen wurden, sind besonders anfällig für Rauschen. Die meisten Bildprozessoren tun ihr Bestes, um es zu eliminieren. Einige Methoden zur Rauschunterdrückung sind besser als andere, und alle opfern die Genauigkeit zugunsten eines angenehmeren Bildes.

Gamma-Korrektur: Die Bildsensoren Ihres Telefons nehmen die Welt nicht so wahr, wie unsere Augen es tun. Dies gilt insbesondere für Luminanzwerte. Insbesondere unsere Augen können dunklere Schattierungen gut unterscheiden. Das bedeutet, dass das, was unser Bildsensor als 50%ige Lichtintensität wahrnimmt, für uns etwa 75%ige Lichtintensität darstellt. Die Gamma-Korrektur passt die Luminanzwerte des Bildes an, um sie an unsere Wahrnehmung der Welt anzupassen.

Einer der größten Vorteile von Telefonkameras gegenüber professionellen DSLR-Kameras ist der elektronische Verschluss. Während eine DSLR auf einen langsameren mechanischen Verschluss angewiesen ist, um zu steuern, wie viel Licht ihr Sensor ausgesetzt ist, verwenden Telefon-Sensoren elektronische Verschlüsse, die deutlich kürzere Belichtungszeiten ermöglichen. Dies bedeutet, dass unsere Telefone in sehr kurzer Zeit eine Serie von Fotos aufnehmen können, was neuartige Nachbearbeitungstechniken ermöglicht.

Multi-Exposure HDR: Belichtung bezieht sich darauf, wie lange der Bildsensor dem Licht der Szene ausgesetzt ist. Kürzere Belichtungszeiten erfassen die hellsten Teile eines Bildes besser, lassen jedoch die dunkleren Teile zu dunkel erscheinen, um Details erkennen zu können. Längere Belichtungszeiten bringen dunklere Details zum Vorschein, überbelichten jedoch hellere Details, sodass sie in Weiß übergehen. Indem mehrere Fotos mit unterschiedlichen Belichtungen aufgenommen und kombiniert werden, kann Ihr Telefon ein Foto mit einem größeren Bereich an Lichtintensitäten erzeugen.

Mehrfach-Bildrauschunterdrückung: Eine der häufigsten Quellen für Rauschen in Fotos ist das Fotografieren bei schlechten Lichtverhältnissen. Um den Mangel an Photonen auszugleichen, erhöht Ihr Telefon seine ISO-Empfindlichkeit – wie empfindlich es auf Licht reagiert. Der Kompromiss für die Erfassung von mehr Licht besteht in einer höheren Anfälligkeit für Rauschen. Die Idee ähnelt dem Stapeln von Bildern in der Astrofotografie. Es werden mehrere Fotos mit höheren ISO-Einstellungen (geringere Lichtempfindlichkeit) aufgenommen und dann kombiniert, um Rauschen zu eliminieren und die Belichtung schrittweise zu erhöhen.

Siehe auch  Samsung Galaxy A15, A15 5G und Galaxy A25 5G: Neue Modelle im Überblick

Porträtmodus: Die meisten Telefonkameras haben eine große, feste Tiefenschärfe, d.h. naheliegende Objekte sind genauso scharf wie weit entfernte Objekte. Aus ästhetischer Sicht ist das jedoch nicht immer gewünscht. Oft ist es wünschenswert, eine geringe Tiefenschärfe zu haben, bei der nur das Hauptmotiv des Fotos scharf ist und der Hintergrund unscharf erscheint. Um dies zu erreichen, nehmen einige Telefone mehr als ein Bild (manchmal von verschiedenen Kameras) auf, um eine grobe Vorstellung von den Entfernungen verschiedener Teile des Fotos zu bekommen, um den Hintergrund von dem Vordergrund zu trennen und selektiv eine Unschärfe anzuwenden.

Jeder Hersteller hat seine eigene Methode zur Anwendung dieser Schritte, und basierend auf den gleichen RAW-Daten erzeugen Samsung, Huawei, Pixel und iPhone unterschiedliche Bilder. Keine Methode ist objektiv besser als eine andere. Einige Menschen bevorzugen die HDR-lastige Verarbeitung des Pixel gegenüber dem konservativeren und natürlicheren Look des iPhone.

Sind Megapixel wirklich wichtig?

Absolut. Wenn wir ein Foto aufnehmen, erwarten wir ein gewisses Maß an Authentizität. In der Regel möchten wir, dass unsere Fotos so real wie möglich aussehen, und sichtbare Pixelung zerstört die Illusion. Um diese Illusion der Realität zu bewahren, müssen wir die Auflösung des menschlichen Auges annähern, die für eine Person mit 20/20-Sehkraft etwa 720 Pixel pro Zoll beträgt, wenn man es aus einem Fuß Entfernung betrachtet.

Wenn Sie Ihre Fotos im standardmäßigen 6-Zoll mal 4-Zoll-Fotformat drucken möchten, benötigen Sie eine Auflösung von 4.320 mal 2.880 oder 12.441.600 Pixel, was knapp unter 12,5 Megapixel liegt. Aber das wirft die Frage auf: Wenn 12 Megapixel nahe dem Limit dessen liegen, was das durchschnittliche Auge sehen kann, warum hat das Samsung Galaxy S21 Ultra dann 108 MP? Telefone wie das S21 Ultra erzeugen keine 12.728 mal 8.485 Bilder. Stattdessen verwenden sie Pixel Binning, bei dem die Software des Telefons die Daten von einem Quadrat benachbarter Fotosites zu einem “Superpixel” kombiniert.

Diese Art von Software-Zauber wird von Telefonen mit Quad-Bayer-Sensoren verwendet, um die Leistung zu verbessern. Anstatt einen Fotosite zur Erfassung von Farbinformationen zu verwenden, werden vier Fotosites zu einem größeren Fotosite kombiniert, was jedoch zu einer geringeren Bildauflösung führt. Warum nicht einfach größere Fotosites machen? Das wäre möglich, aber die Binning-Methode kleinerer Fotosites bietet Vorteile, die größere Sensoren nicht bieten können, wie bessere HDR-Bilder und Zoom-Funktionen.

Vergessen Sie nicht, Ihre Fotos zu speichern

Jetzt, da Sie mit den Komponenten der Smartphone-Kamera vertraut sind, sollten Sie auch über die Speicherung nachdenken. Wenn Sie ein begeisterter Smartphone-Fotograf sind, sollten Sie sich nicht nur auf eine Methode zur Speicherung Ihrer Fotos verlassen. Google Fotos kann Ihnen bei der Organisation und Speicherung von Fotos helfen, aber Sie sollten auch Backups haben, falls Sie keinen Zugriff auf Ihr Konto haben.

Eine gute Synology NAS ist eine weitere solide Option zur Fotospeicherung, aber weder sie noch Ihr Telefon sind für die Archivierung wichtiger Erinnerungen geeignet, da digitale Speichermedien oft nach 5 bis 10 Jahren instabil werden können.

Die Library of Congress bietet einen guten Überblick darüber, wie man Druck- und digitale Medien archiviert. Wenn Sie spezielle Anforderungen haben, haben die meisten Forschungsuniversitäten Mitarbeiter, die Experten für die Archivierung digitaler Medien sind und Sie in die richtige Richtung weisen können.

Avatar-Foto

Marina Meier

Marina arbeitet hart daran, ihre Leser mit aktuellen Informationen und hilfreichen Tipps zu versorgen. Sie weiß, dass mobile Geräte einen wichtigen Platz in unserem Leben einnehmen und dass es schwierig sein kann, sich im ständig wachsenden Markt zu orientieren. Deshalb bemüht sie sich, ihre Leser auf dem Laufenden zu halten und ihnen dabei zu helfen, die besten Geräte für ihre Bedürfnisse auszuwählen. Sie freut sich darauf, auch in Zukunft über die neuesten Entwicklungen im Bereich Handys und Tablets zu berichten.