Sony erklärt, wie der AI Camera Assistant im Xperia 1 III arbeitet und liefert vier alternative Bildvorschläge statt automatischer Bildbearbeitung.
In Kürze
- Analysiert Licht, Tiefenverhältnis und Motiv
- Bietet vier Varianten in Belichtung, Farbe und Unschärfe
- Beispielbilder zeigen weiterhin sichtbare Mängel
Sony hat auf Kritik erklärt, wie der AI Camera Assistant im Xperia 1 III (im Sony‑Text teils als „XIII“ bezeichnet) arbeitet — und zugleich klargestellt, dass die Funktion Bilder nicht automatisch bearbeitet, sondern Vorschläge liefert.
Wenn du mit der Kamera auf ein Motiv zielst, analysiert der Assistent Beleuchtung, Tiefenverhältnisse und das Motiv selbst. Du bekommst vier alternative Bildvorschläge, die sich vor allem in Belichtung (Helligkeit), Farbgebung und Hintergrundunschärfe unterscheiden.
Im offiziellen Produktvideo behauptet Sony außerdem, der Assistent schlage „den photogensten Winkel“ vor. Im Clip ist davon allerdings nur eine Empfehlung zum Hereinzoomen zu sehen; ein konkreter Winkelhinweis fehlt.
Sony hat Beispielbilder auf X gepostet. Diese werden von Beobachtern zwar als verbessert gegenüber früheren Aufnahmen beschrieben, weisen aber nach wie vor erkennbare Mängel auf. Die vier Varianten zeigen dabei unterschiedliche Probleme:
- Vorschlag 1: Farben sind deutlich übersättigt.
- Vorschlag 2: Bild wirkt flau und überarbeitet.
- Vorschlag 3: Das Motiv (beispielsweise Essen) wirkt, als sei es ins Bild hineingephotoshopt.
- Vorschlag 4: Kontrast ist zu hoch gesetzt.
Sony hat damit die Funktionsweise des AI Camera Assistant erklärt; die präsentierten Beispielbilder bleiben im Netz und in Kommentaren weiter Gegenstand der Diskussion.
Quellen
- Quelle: Sony
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




