ICC Template color calibration

Robert9

Member
Registriert
27 Juni 2022
Beiträge
49
Ich kümmere mich nie um das Thema Calibration, weil das mein Eizo alle vier Wochen selbständig macht.
Jetzt muss ich mir ein Laptop zulegen und finde das T16 je nach Version mal mit Angabe von "ICC Template color calibration", mal ohne diese Angabe.

Bedeutet das "ICC Template color calibration", dass der Monitor einen Look-Up-Table hat wie man das bei Eizo nennt, sprich der Monitor kalibriert wird?
Oder ist das nur Marketing und bedeutet so viel wie das die Information der Grafikkarte verbogen wird, bevor sie zum Monitor geht?

Will ich das haben?

Der AMD scheint laut CPU Benchmark den Intels massiv davon zu rennen, bei den internen Grafikkarten scheint es trotz doppelt so schnellem Speicher weniger Unterschiede zu geben? Der AMD kommt mit max. 16 GB RAM, den Intel kann ich auf 32 GB aufbohren.

Mit den 16 GB kann ich wohl leben, bleibt die Frage nach dem "ICC Template color calibration" als Entscheidungskriterium.
Ansonsten wäre mir der deutlich schnellere AMD wohl lieber, soweit der nicht wieder übelst heiß wird, wozu ich noch keine Testberichte finde.


Vielen Dank.
Beitrag automatisch zusammengeführt:

Evtl. bedeutet das aber auch nur, dass ein ICC-Profil mitgeliefert wird. Das wäre soweit gelesen die Softwarelösung, die ich über eine Kalibrierung mit externer Gerätschaft sowieso kriege?

Schade, dass Eizo keine Reisemonitore baut.
 
Zuletzt bearbeitet:
Was Lenovo da genau verkaufen mag, kann ich nicht sagen, aber vielleicht etwas zur Technik. Bei jeder Graphikkarte, die nicht älter als 10 Jahre ist, gehen die Daten aller drei Farbkanäle durch je eine Lookup-Tabelle, also im Sinne von Rot-Ausgabe = Tabelle_Rot[Roter Pixelwert], und nochmal das gleiche für Grün und Blau.

Im "Normalfall" ist der Eintrag der Tabelle in der Spalte i gleich i, also "Ausgabe = Eingabe". Das ist der "unkalibrierte Zustand". Durch Ändern dieser Tabelle kann man jetzt Rot, Grün oder Blau etwas zurücknehmen, damit den Weißpunkt verschieben, oder durch die Tabelleneinträge eine nichtlineare Funktion wie etwa ein Gamma-Mapping implementieren.

Das ganze reicht hin, um (relativ einfache) ICC-Profile damit implementieren zu können.

Kurz und gut: Das, was Du brauchst, um den Monitor "kalibrieren" zu können, kann jede halbwegs moderne Graphikkarte und ist kein Alleinstellungsmerkmal.

Was zwangsläufig passiert ist, dass die Anzahl der darstellbaren Farben dadurch etwas abnimmt. Liegt in der Natur der Sache.

Kalibrierung im Monitor funktioniert ähnlich, auch dort gibt es wieder eine Tabelle, über die der Monitor die Ansteuerung der LCDs vornimmt. Dort wird man ggf. eine feinere Abstimmung als über 8 bit vornehmen können (das ist das, was die üblichen Consumer-Graphikarten können), allerdings setzt das schon einen professionellen Monitor voraus.
 
Danke Dir. Was aber ist nun dran an den Meldungen, dass man möglichst die Daten im Panel anpassen und nicht nur die Daten ab Grafikkarte verändern soll? Oder ist das sowieso alles Quark für meine alten, schlechten Augen?

Ich mag es sehr, dass ich mich an drei verschiedene Rechner setzen kann und die Bilder, die ich auf einem der drei Eizos bearbeite überall identisch aussehen, während das Bild auf diversen anderen Monitoren ohne Kalibrierung stets anders aussieht.

Wobei ... mich das jetzt erst auf die Idee bringt, den Rest mal mit dem neu erworbenen color checker anzugehen. Wenn das halbwegs passt, wird es auf den Laptops wohl auch passen.
 
Danke Dir. Was aber ist nun dran an den Meldungen, dass man möglichst die Daten im Panel anpassen und nicht nur die Daten ab Grafikkarte verändern soll?
Naja, siehe oben. Das ist im Prinzip schon richtig, weil Du bei der Anpassung in der Graphikkarte zwangsweise Helligkeit und Farbumfang verlierst. Beim Panel hat man "mehr Luft". Aber die Frage ist eher, "welcher Monitor bietet dieses Feature", und da wird es eben relativ rasch eng. Das findet man nur im Profi-Segment. Bei den Consumer-Geräten hinterlegen die Hersteller mehr oder minder neblig definierte Voreinstellungen mit ein paar Reglern, mit mehr oder minder unklarer Funktion ("Kontrast", "Helligkeit") die Paneleigenschaften in unklarer Weise verändern.

Oder ist das sowieso alles Quark für meine alten, schlechten Augen?
Naja, das musst letztlich Du wissen. Die Farbabweichungen sieht man auch mit ungeübtem Auge, die Frage ist aber, ob ein farbkorrekter Arbeitsablauf notwendig ist - etwa in dem Sinne, dass Ausdrucke aus einem Farbdrucker dem visuellen Eindruck auf dem Bildschirm entsprechend sollen. In der Heimanwendung wird das weniger wichtig sein als wenn man damit ein Gewerbe betreiben will. Ich habe keinen Farbdrucker, insofern ist mir das egal, aber ich bin da nicht das Maß der Dinge.

Ich mag es sehr, dass ich mich an drei verschiedene Rechner setzen kann und die Bilder, die ich auf einem der drei Eizos bearbeite überall identisch aussehen, während das Bild auf diversen anderen Monitoren ohne Kalibrierung stets anders aussieht.
Das wird man mit der Graphikkarte schon gut genug wegkalibrieren können, als dass es nicht mehr groß stört, icc-Profile kann man zumindest unter Windows mit Bordmitteln hinterlegen. Höhere Anforderungen an Präzession wird man hier nicht stellen dürfen (aka "\Delta E" wird eine Mindestgröße nicht unterschreiten), für den Hausgebrauch wird das schon passen. Wenn man dann genauere Farben haben will, braucht es schon einen Profi-Monitor mit der Möglichkeit der Hardwarekalibrierung, da ist dann oft ein Farbsensor verbaut oder zumindest im Lieferumfang enthalten. Das geht dann über das Panel und nicht über die Graphikkare.
 
Schlußendlich geht es darum, was alle anderen sehen. Und damit das halbwegs nah an dem ist, was ich zeigen möchte, muss bei mir der Monitor stimmen.

Wenn das mit dem externen Kalibriergerät nicht halbwegs machbar ist, muss ein Eizo her, wobei ich mir die Kosten natürlich sparen will. Und es hängt nicht zuletzt davon ab, ob ich zwei, sechs oder zwölf Monate in Übersee bleibe.

Ich werde jetzt mal alle Monitore ohne eigene Kalibrierungshardware mit dem externen Gerät kalibrieren, damit ich mal einen Eindruck bekomme, was dabei herauskommt. Der Spielemonitor hier z.B. hat zuviel rot, was mich bis heute nicht gestört hat.

Ein einfacher Eizo, der hier neben dem großen Eizo steht, wirkt z.B. trotz der externen Kalibrierung ganz, ganz anders und hat deutlich weniger rot als der Eizo, der sich selbst kalibriert.

Evtl. sollte ich darauf achten, dass ich ein Panel mit mehr Farben als SRGB kriege, wenn die "Übersetzung" zwischen Grafikkarte und Monitor Farbraum kostet?
 
Vorab und zur Einstiegsfrage: Was Lenovo da meint, kann ich auch nicht sagen. Ich bin beileibe auch kein Experte auf diesem Gebiet, aber etwas habe ich mich schon mit dem Thema Kalibrierung auseinander gesetzt.
Zunächst mal liefert Lenovo für jedes Modell auch Treiber für den verbauten Monitor. Dieser umfasst dann auch das werkseitige ICC-Profil. Damit ist man schon mal wesentlich besser aufgestellt, als wenn man ein Standard-Profil von Windows verwendet, Das ist aber nichts neues und all das gab es schon zu Zeiten von XP.
Ganz grob gesagt hat die Kalibrierung 2 Hintergründe. Nr 1 ist banal, es sind Fertigungstoleranzen, die dadurch noch korrigiert werden können. Nr 2 ist mehr relevant für externe Display, wo man oft noch Regler hat, mit denen man manuelle Einstellungen vornehmen kann. Einige Grafikkarten bieten das indirekt auch an, indem das Monitorausgangssignal "verstimmt" wird, so dass der optisch gleiche Eindruck entsteht, wie wenn man die Regler am Monitor "verdreht". Jedenfalls werden im Fall 2 diese Einstellungen korrigiert, so dass ein möglichst farbrichtiges Bild entsteht.


Danke Dir. Was aber ist nun dran an den Meldungen, dass man möglichst die Daten im Panel anpassen und nicht nur die Daten ab Grafikkarte verändern soll?

Ich sehe das eher umgekehrt. Nach meinem Wissen liefert jede gängige Grafikkarte eine Farbraum von mindestens 12-Bit je Kanal. Das ist klar mehr, als aktuelle Monitore darstellen können. Wenn man ausschließlich im Monitor kalibriert hat man weniger Spielraum.
Die monitor-basierte Kalibrierung hat für mich mehr den Zweck, dass sich der Monitor selbst immer gleichbleibend verhält und zudem in einem Zustand ist, der möglichst eine neutrale Einstellung entspricht. Änderungen am Monitor (woher sie auch kommen mögen) kann die Grafikkarte ja nicht erkennen.
Aber natürlich kann man diese im Monitor eingebaute Kalibrierung durchaus verwenden, um die gesamte Kette von Grafikkarte und Monitor zu optimieren. Hier spielt sich die Kalibrierung dann auf dem Farbtiefenumfang, den die Monitorhardware beherrscht, ab. Bei höherwertigen Monitoren nach heutigem Stand also mit 10-Bit Umfang.
Kalibriert man über die Grafikkarte, hat man (theoretisch zumindest) mehr Spielraum.
However, wenn man wirklich Profi-Niveau erzielen möchte, ist die Kalibrierung beider Komponenten das non-plus-ultra.

Naja, siehe oben. Das ist im Prinzip schon richtig, weil Du bei der Anpassung in der Graphikkarte zwangsweise Helligkeit und Farbumfang verlierst.

Ich würde auch nicht davon sprechen, dass man bei der Kalibrierung der Grafikkarte etwas verliert. Durch die Kalibrierung werden bestimmte Farbanteile ja nur zusätzlich verstärkt bzw. zurückgenommen, so dass die Zielfarbe möglichst getroffen wird und zusätzlich wird die Helligkeit auf den gewünschten Zielwert gestellt. Man gewinnt also eher an sichtbarem Farbumfang, denn das typische "absaufen" von Farben wird verhindert.
Natürlich sind dem Grenzen gesetzt, also was der Monitor physikalisch nicht darstellen kann, kann auch keine Kalibrierung hervorzaubern. Und wenn ich den Monitor z.B. händisch extrem verstelle (extern z.B. am Helligkeitsregler usw., bei Grafikkarte durch die Voreinstellungen) kann das die Kalibrierung natürlich auch nicht mehr korrigieren.

Grüße Thomas
Beitrag automatisch zusammengeführt:

Schlußendlich geht es darum, was alle anderen sehen. Und damit das halbwegs nah an dem ist, was ich zeigen möchte, muss bei mir der Monitor stimmen.

Wenn das mit dem externen Kalibriergerät nicht halbwegs machbar ist, muss ein Eizo her, wobei ich mir die Kosten natürlich sparen will. Und es hängt nicht zuletzt davon ab, ob ich zwei, sechs oder zwölf Monate in Übersee bleibe.

Ich werde jetzt mal alle Monitore ohne eigene Kalibrierungshardware mit dem externen Gerät kalibrieren, damit ich mal einen Eindruck bekomme, was dabei herauskommt. Der Spielemonitor hier z.B. hat zuviel rot, was mich bis heute nicht gestört hat.

Ein einfacher Eizo, der hier neben dem großen Eizo steht, wirkt z.B. trotz der externen Kalibrierung ganz, ganz anders und hat deutlich weniger rot als der Eizo, der sich selbst kalibriert.

Evtl. sollte ich darauf achten, dass ich ein Panel mit mehr Farben als SRGB kriege, wenn die "Übersetzung" zwischen Grafikkarte und Monitor Farbraum kostet?

Ob man wirklich einen selbstkalibrierenden Monitor braucht, ist eine Frage deiner Ansprüche. Wenn du dir einen neunen externen Monitor anschaffen möchtest, würde ich (als Amateur) zunächst darauf achten, dass er mindestens 100% sRGB darstellen kann. Den Rest würde ich über ein externes Kalibriergerät machen, denn nur mit so einem Teil kannst du auch den Bildschirm am Laptop im Rahmen der Möglichkeiten optimieren. Und wenn du das externe Kalibriergerät eh hat, kannst du es natürlich auch für den externen Monitor verwenden. So gesehen ist das Geldanteil für eine monitorinterne Kalibrierung eigentlich rausgeschmissenes Geld. Aber wie in meinem ersten Post erläutert, ist halt eine Frage der Ansprüche und logisch des Geldbeutels auch.

Ansonsten muss dir bewusst sein, dass, wenn du selbst mit einem externen Monitor und dem Display am Laptop arbeitest, immer Abweichungen zwischen auftreten werden. Ein (guter) externen Monitor wird immer mehr können, als das Display an einem Laptop. Wenn du den externen Monitor also nun bestmöglich kalibrierst, egal ob mit extra Kalibrator oder intern, wird das Laptop dem zwangsweise hinterher hinken. Du wirst also leichte Abweichungen erkennen können. Wie groß bzw. wie relevant diese dann sind, ist schwer zu sagen.
Wo ich passen muss ist die spannende Frage, wenn man den Laptop-Bildschirm im Rahmen seiner Möglichkeiten kalibriert hat, ob es eine Software gibt, die einen externen Monitor dann so kalibrieren kann, dass er mit dem schlechteren Laptop-Bildschirm übereinstimmt. Und dadurch natürlich etwas Monitor-Potenzial ungenutzt ist.

Grüße Thomas
 
Zuletzt bearbeitet:
Machen wir es mal ganz konkret: Ich produziere seit vielen Jahren regelmäßig neue Bilder für die Webseite xyz. Trotzdem die Eizos gewechselt wurden von 24‘‘ auf 27‘‘ auf 27‘‘ mit 2k (alle mit Autokalibrierung) und die Kameras von 5D2 auf 3 auf S auf Sony R1, 2 und 3 sind die Bilder halbwegs aus einem Guß, es gibt keinen Zeitpunkt, der auffällig wäre. Wenn ich jetzt plötzlich ohne teuren Eizo arbeite, weil unterwegs in der Welt, könnte das womöglich passieren. Und irgendwann kommt dann mal die Mail, was eigentlich los ist und warum alle Bilder seit Datum x einen Rotstich haben. Das muss ich vermeiden.

Mit dem passeren Panel. (+200-400)
Mit einem Color Checker. (+200, schon gekauft)
Mit einem externen Reisemonitor mit großem Farbraum. (+600)
Mit einem Eizo wie zuhause. (+1500 bis 2500)

Und jeder dieser Schritte kostet halt mal Geld.
 
Dann mache ich es ebenso konkret: 100% Sicherheit wie zuhause wirst du unterwegs nur erreichen können, wenn das Home-Equipment mitwandert.
"Color Cheker" ist so auch kein gebräuchlicher Begriff. Sag doch einfach, welche Geräte du konkret hast, wenn du schon konkret sein willst. Ansonsten sind deine Kameras aus der eher oberen Liga, was für die meisten Websites eigentlich schon ziemlich oversized sein dürfte. Das aber nur als Randbemerkung.

Für die Entscheidung für einem Laptop für unterwegs würde ich mich weniger auf irgendwelche Werbeaussagen bzw. Stichworte verlassen, deren Definition nicht eindeutig geklärt ist bzw. wozu es keine objektiven Testberichte gibt. Ich würde mich daher mehr auf einschlägige Test verlassen wo nachgewiesen ist, dass eine 100% sRGB-Abdeckung gegeben ist. Welche Lenovo-Modelle bzw. welche Panels das aus der derzeitigen Produktreihe erfüllen, kann ich so nicht sagen. Da müssen andere ran, die eine bessere Marktübersicht haben. Oder du must selbst recherchieren, ggf. auch im englisch sprachigen Raum.
Den Laptop würde ich dann mit deinem externen Kalibriergerät kalibrieren und dazu zuhause ein Gefühl entwickeln, wie gut das mit deinem Eizo übereinstimmt. Und nun ist es wieder an dir zu beurteilen, ob du dich unterwegs auf den kalibrierten Laptop allein verlassen möchtest; das wird dir niemand abnehmen können. Wenn du mich aber fragst: Wenn Panel 100% sRGB hat und du bei der Kalibrierung und sonstwo keine systematischen Fehler machst, bist du unterwegs dann ziemlich sicher aufgestellt und ein extra Reisemonitor ist für deine Anwendung eigentlich überflüssig. Ich glaube, ich persönlich würde unterwegs nichtmal das Kalibriergerät mitschleppen wollen.

Und um nochmal konkret und ehrlich zu sein: Du solltest dich dringend etwas intensiver mit dem Thema Farbmanagement, kurz FM, und dem drumrum (ICC-Profile und deren Anwendung) auseinandersetzen. So wie du schreibst, macht das für mich den Eindruck, dass bei dir nur Halbwissen in Form von gewissen Begrifflichkeiten vorhanden ist, dir aber nicht klar ist, wie alles zusammen spielen muss, um beispielsweise Farbstiche zu vermeiden. Ausdrücklich ist das keine Kritik an dir und deine Ausgangsfrage ist durchaus berechtigt. Aus eigener Erfahrung kann ich dir aber sagen, dass sich viele deiner Fragen quasi von allein klären, wenn du in der Thematik richtig drin steckst.

Grüße Thomas
 
Das Gerät heißt "Color Checker Display Pro".

Dass den Angaben der Hersteller nicht unbedingt zu trauen ist, ist klar. Es bleibt die Frage, ob sRGB, Adobe RGB oder DCI-P3 und ob das irgendeine Rolle spielt je nachdem wie kalibriert wird.

Der kleine Eizo z.B. wurde vorhin kalibriert indem ich Farbwerte per Taste nach Anweisung durch die Software verändert und zusätzlich das ICC auf dem Rechner installiert habe. Via falschem ICC habe ich den Weg geprüft. Der kleine kann sRGB und spiele gerade weiter mit den Einstellungen herum. So ganz stimmen die zwei Monitore noch nicht überein.

Man findet ansonsten zum Thema jede Menge SEO-Texte, die ein bisschen um das Thema herumlabern, aber auch einige schöne ausführliche Erklärungen, alternativ diverse einleitende Kapital in diversen Büchern. (Ich war früher mal ein Fotobuchsammler. :)

Der beste Rat ist vielleicht tatsächlich mal alles zu kalibrieren, was es zu kalibrieren gibt um eine Idee zu kriegen, ob das überhaupt einen Sinn macht. Deshalb werde ich gleich mal diverse ältere Laptops angehen und dann neben den Eizo stellen.
 
Zuletzt bearbeitet:
Lustige Sache. Ich soll die Lichtart angeben. Woher soll ich das denn wissen.


Puh! Einstellung "Messen!" gefunden. :)

Mein Spektrometer (ich habe/hatte tatsächlich eines hier herumliegen), ist seit ein paar Tagen zur Reparatur.
Dann hätte ich das aber theoretisch mal ganz, ganz professionell machen können. :D

Und die Leuchtdichte nimmt den Wert an, den der Monitor angeblich kann? Nein, wird gemessen.
Gamma lasse ich auf 2.2
Tonwertkurve auf sRGB.
 
Das Themengebiet ist groß. Sehr groß. Und ziemlich komplex. Und oft lautet die richtige Antwort: Es gibt keine richtige Antwort :D
Klar, die Abweichungen der Farben sollen nicht sein, deswegen ja Kalibrierung.

Weißpunkt:
Aber der richtige Weißpunkt hängt davon ab, was man erreichen möchte. Soll das Bild auf Papier genau so aussehen wie auf dem Bildschirm? Dann sollte man am Monitor den gleichen Weißpunkt nutzen wie die Lichtfarbe, die beim Betrachten der Bilder auf Papier auch vorherrscht. Gerne wird 6500K Als Standard genommen. Viele Ausbelichter nehmen inzwischen aber auch 5000K und das trifft eine etwas wärmere Stimmung, die häufig vorherrscht, besser. Wichtig ist aber halt: Gleichen Wert nehmen wie der Ausbelichter.
Sollen alle Monitore gleich aussehen, sollten natürlich auch alle auf den gleichen Wert kalibriert sein.
Ich erstelle meistens Profile für 6500K und 5000K, nutze meist letzeres aber es kommt halt drauf an.

Gamma:
2,2 ist quasi-Standard. Außer natürlich Apple, die spielen gerne wieder ihre Sonderrolle aus und nutzen gern 1,8. Wichtig ist aber auch hier: Den Wert nehmen, den der Ausbelichter zum Kalibrieren seiner Maschinen auch nutzt. Und auf allen Geräten am besten gleich setzen. Zum reinen Betrachten nutze ich auch gerne non-Gamma-Kurven, z.B. L-Star (L*). Die bietet etwas höheren Kontrast und ist etwas mehr auf das menschliche Auge abgestimmt. Für Fotobearbeitung aber am besten bei Gamma bleiben, meist 2,2.

Luminanz:
Auch hier gibt es einen Klassiker, nämlich 120cd/m². In halbdunklen bis dunklen Umgebungen perfekt für die Bearbeitung von Fotos und meist auch das, worauf die Ausbelichter abzielen. Vorteil außerdem: blendet wenig, strengt die Augen auf Dauer nicht so an. In hellen bis sehr hellen Umgebungen kann das aber zu wenig sein, irgendwann erkennt man zu wenig und ist wiederum dadurch angestrengt. Dann kalibriert man auf höhere Werte oder lässt den Wert unangetastet - sollte dann aber auch von Fotobearbeitung absehen.

Farbraum:
sRGB war glaube ich mal so als kleinster gemeinsamer Nenner gedacht, den aber sehr viele Geräte nicht mal erreichen. AdobeRGB hat sich als größerer Farbraum als mehr-oder-weniger-Standard durchgesetzt. Und dann gibt's insbesondere im Filmbereich noch weitere Farbräume, wie DCI-P3, Rec. 709, Rec. 2020, ... wobei dahinter oft auch nicht nur der Farbraum, sondern auch noch Definitionen von Weißpunkt und Gamma stecken, damit ein Film genau so aussieht, wie er aussehen soll. Hinter so einem Farbraum steckt die Info, wie rot das maximale Rot aussieht, wie grün das maximale Grün aussieht und wie blau das maximale Blau aussieht. Denn die Farbräume decken einen viel kleineren Bereich ab als das menschliche Auge sehen kann. Ein größerer Farbraum (z.B. AdobeRGB vs. sRGB) ermöglich also die Darstellung von mehr Farben und intensiveren Farben. Gleichzeitig werden bei gleicher Auflösung (z.B. 8bit pro Farbe) die Abstufungen zwischen einzelnen Farbwerten auch größer. In der Regel ergibt es aber keinen Sinn, seinen Monitor auf einen begrenzten Farbraum zu beschränken (außer, um das mal zu simulieren). Aber wichtig ist immer, bei seinem Workflow mit einem einheitlichen Farbraum zu arbeiten. Fotos aus der Kamera (zumindest wenn JPEG und nicht RAW), Fotos nach der Bearbeitung und Interpretation des Farbraums beim Ansehen des Bildes - alle müssen unbedingt den gleichen Farbraum nutzen. Ansonsten sieht das Bild anders aus als es sollte. Schaut man sich ein Bild an, das mit sRGB Farben gespeichert wurde und der Bildbetrachter interpretiert die Farben im AdobeRGB-Farbraum, dann sind alle Farben plötzlich deutlich intensiver, das Bild wird ggf. quietschbunt. Umgekehrt sieht ein AdobeRGB-Bild im sRGB-Farbraum plötzlich flau und ausgebliche aus, alle Farben sind zu schwach. Manchmal kann es daher Sinn machen, auf AdobeRGB zu verzichten und sRGB zu nutzen, weil das am ehesten beim Betrachter "klappt". Also Bildprogramme, die sich nicht um den Farbraum scheren, nutzen dann meist sRGB. Ansonsten ist AdobeRGB eine gute Wahl, da man so eben noch mehr Möglichkeiten hat für intensivere Farben.
 
Sehr schöne Erklärung cuco. Ich hoffe, du hast das nicht alles tippen müssen und irgendwo einen Master, aus dem du kopieren kannst.

Grüße Thomas
 
Scheibenkleister. Was ich da wohl alles verpasst haben mag. Dingens pro Fläche auf 120? Ich wüsste nicht mal, wo man das einstellt.
Dafür haben jetzt der kleine und der große Eizo eine gleiche Darstellung, wenn man beide auf sRGB laufen lässt. Die Kameras laufen auf Adobe RGB, hat mal irgendwer besser gewusst, seitdem halte ich mich daran. Ausbelichter gab es in den 90igern. Nicht meine Baustelle.
Aber was hat es mit den Einstellungen User1, User2, sRGB usw. auf sich? Kümmert sich mein .icc um all diese Einstellungen?
Weil ich nämlich beim Befolgen der Ansagen durch das Kalibrierungsprogramm auf User1 und nicht auf sRGB war.

Das Ergebnis bei diesen zwei Monitoren ist jetzt jedenfalls perfekt, egal, was ich da nun verbrochen habe. (vtl. ja auch gar nichts, falls das alles nur für User1 war.)

Als nächstes habe ich den Lenovo Herumtragdingensmonitor kalibriert. Irgendwie ist das ein billiges Ding für teures Geld, denn die Fläche erscheint nicht homogen beleuchtet zu sein. Auf irgendeiner Pornoseite habe ich ein Referenzbild gefunden (ja, klar wegen der Farbverteilung, warum fragst Du?). Und das sieht auf dem besagten Lenovo scheibe aus. Am besten verschenke ich den an Weihnachten.

Als nächstes sind jetzt ein Asus Rennweg Monitor und ein IIyama aus den späten 70igern dran. Rennweg weil der angeblich so schnell ist, dass man den anderen Waffenträgern regelmäßig wegrennen kann, nachdem man sie gemeuchelt hat, und späte 70iger, weil der hier schon Ewigkeiten herumsteht, aber nie an ist. Denn warum sollte ich außer zur Installation meine Linuxkisten mit einem extra Monitor beackern, wenn das auch auf dem Hauptrechner geht. Aber falls doch, muss die Konsole in kalibrierten Farben erscheinen. Logisch, oder?!

Wäre ich Eizo würde ich dem Volk jedenfalls was tolles bauen. Einen 5:4 Monitor, mit mindestens doppelter, besser vierfacher Auflösung in 19 Zoll und eingebettet in einer Plastikhartschale, so dass man das Ding problemlos in den Koffer werfen kann. Dafür noch extra Geld für ein Kalibrierdingens nehmen und glücklich wären die Reisenden.


Apropos glücklich, hat jemand mal sowas hier probiert?


Leider will mir der Anbieter nicht verraten, was er da genau in Polen bzw. neuerdings Großpolen gelagert hat. Rein von der Idee her wäre es vielleicht lustig Pickel und Mitesser direkt auf dem Monitor zu clerasiliren.

Hatte ich erwähnt, dass ich nur sieben Kilo plus 1.5 in der Laptoptasche mitnehmen darf? Trotzdem fallen mir dauern noch Sachen ein, die ich sonst nie brauche, damit ich das teure Ticket auch ja mit jedem erlaubten Gram nutze.

Heute kam der passende Rucksack dafür an. Ist ja nicht so, dass ich keine Rucksäcke habe, aber der hat tatsächlich 55*40*25cm, das ist die Obergrenze für Handgepäck.


Jetzt muss ich erstmal weiter kalibrieren und jede Menge wenig hilfreiches Fachwissen aufsaugen, aktuell in "Digitale Farbe, Springer, 2018".


Aber einer geht noch!
Ich stehe gerade in der Produktionsanlage vom neuen Lenovo R91, dem Fotografenlaptop für faule Knipser und solche, die es werden wollen.
Leider ist nicht alles perfekt und die Panels haben öfters eine gewisse Abweichung vom Normalwert. Deswegen gibt es ein .icc-Profil dazu.

Ist das nun ein .icc-Profil, das für diesen einen Monitor erstellt wurde? Nein! Denn sonst könnte das Lenovo ja schlecht zum Download anbieten. Wie aber funktioniert das dann?

Die Grafikkarte schreit: "Achtung, hab ein schönes Rot für dich! Bitte platziere es anständig auf den nächsten Pixel!"
Monitor schreint zurück "Ja, gerne mach ich, aber ich schau mal kurz in die Excelliste mit den Übersetzungsanweisungen!"


Und jetzt die Preisfrage: Woher soll unser Monitor wissen, dass er leider bei der Produktion nicht ganz perfekt geboren wurde? Neben den Segelohren und dem Doppelkinn hat er leider auch eine leichte Neigung zur Rotstichigkeit geerbt. Woher soll er das aber wissen? Woher wissen, dass er im .icc-Profil in der Zeile 1235876 nachschlagen soll, um aus dem schönen Rot ein schönes Rot zu machen statt es überrot errötend als zu rotes Rot auszuspucken?

Gar nicht, sagst Du! Das muss die Grafikkarte machen!
Nein, nein, das macht der Billy mit seinem Betriebssystem!

Und woher wissen die was von besagtem Rotstich?
 
Zuletzt bearbeitet:
Ich sehe das eher umgekehrt. Nach meinem Wissen liefert jede gängige Grafikkarte eine Farbraum von mindestens 12-Bit je Kanal.
Nein, sicherlich nicht, und bestimmt nicht, was in Laptops verbaut ist. Hier herrscht 8 bit/Kanal vor, und das reicht. Es gibt für einige (teurere) Graphikkarten die Möglichkeit für 10 Bit Ausgabe (pro Kanal) und es gibt auch ein paar teurerere Panels, die das entgegennehmen, aber das findet man auch eher im gehobenen Preissegment. Ebenso arbeitet Windows im allgemeinen mit nur 8 bit/Kanal, wenngleich es durchaus professionelle Software gibt, die schon einen 10bit Workflow anbietet.

Warum 10 bit? Weil 3 Farben * 10 bit = 30 bit ergeben, und das liegt knapp unter der Untergrenze von 32bit/Pixel, was eine bequeme Größe für die Rechner ist.

12bit gibt es natürlich durchaus, allerdings ist das dann im Profisegment, Postproduktion, Filmstudios... aber das ist dann weniger RGB denn YUV.

Was das Panel damit macht, ist die zweite Frage. Es ist noch nicht zu lange her (und vermutlich im Billigsegment immer noch so), dass die üblichen Laptop-Panels nur 6 bit "können", auch wenn sie mit 8 bit angesteuert werden, und den Rest dann durch temporales oder örtliches Dithering simulieren, es bleiben also nicht einmal 8 bit beim Beobachter übrig.
Ich würde vermuten, dass heute eher 8 bit-Panels verbaut werden und diese Zeiten vorbei sind, aber eine ähnliche "Mogelei" findet sich bei den 10-bit Panels, die durch ähnliche Tricks bessere Auflösung erzeugen.

Bleibt noch die Lookup-Tabelle im Monitor selbst. Die wird (typischerweise) zwar 8-bit Eingang, aber eine feinere Auflösung (>8bit) am Ausgang haben,zumindest bei guten Monitoren. Kalibrieren sollte man schon eher am Monitor denn an der Graphikkarte, die über die typischen Anschlüsse meist nur 8, aber maximal 10 bit herausschieben kann.

Thema "Gamut-Verluste": Es ist mathematisch unumgänglich, dass eine diskrete monotone Funktion von N Werten auf eine N-wertige Menge "Verluste" erzeugt, wenn sie nicht die Identität ist. Das lässt sich gar nicht vermeiden. Anders gesprochen, für die Farbkalibrierung braucht man "etwas Luft". Je nachdem wie stark Nachkalibriert wird, wird der Gammut (Farbumfang und Farbauflösung) kleiner, leider unvermeidlich. In den meisten Fällen übertrifft der Nutzen aber den Schaden.
 
Geil, ein Fachmann!
Her mit den Infos! Sofort!

Die Grafikkarte wirft also 8-Bit Farben raus, aber wegen Streuung und Tageslaune sind das mal diese 8-Bit-Farben und mal jene 8-Bit-Farben?
Und wenn wir was ändern an der Übersetzungstabelle sowieso, weil wir ja nicht Farbe 34985 bis 34999 ändern, sondern irgendeine Rechenvorschrift, die dann gleich wieder den ganzen Farbraum ändert, oder? Wobei das Quatsch ist, denn die Karte kann nur x Farben? Oder kann sie x Farben, aber spuckt jeweils nur y aus, so dass wir da ein bisschen variabel sind.

Und der Monitor soll natürlich z Farben können, damit er nicht wie der leere Farbeimer vor dem Berg steht, den Pinsel nicht findet und den Eingang zum Zwergenschatz verweigert.

Und was sind diese Farben eigentlich, die die Karte spuckt? Sie wird ja keine riesen Excel-Liste mit Werten in die Post geben? Eher eine Art allgemeiner Anweisung wie: Wir nehmen mal für rot: mathematischer Kauderwelsch1, was in Abhängigkeit von mathematischem Kauderwelsch2 für blau in Kombination mit mathematischem Kauderwelsch3 und einer etwas beschränkten Formel für grün ganz schön viele Farben sind?

Und was macht der Monitor eigentlich damit? Den Braun haben sie abgeschafft und in eine hölzerne Röhre gelegt, der hätte ja sonst vielleicht jedes einzelne Pixel mal angeschossen. Und das mit Licht in unterschiedlichen Wellenbreiten sowie Wellenhöhen für die Helligkeit (Hah! Hab was gelernt heute!). Aber wie auch immer, ein LED-Monitor muss ja irgendwie auch was drauf- oder dranschießen, damit unser Pixel an der richtigen Stelle rot wird.

Mist, mistiger. Wo war ich jetzt?

Graka spuckt für Pixel x,y einen Wert #123456, alternativ eine Rechenvorschrift. Monitor schießt auf Pixel x,y mit passender Lichtwelle, alternativ mit der richtigen Menge Strom, damit Pixel sich erhellt. Wo, wie, warum passieren jetzt eigentlich Fehler? Weil der Pixelhaufen rechts oben bis mitte mitte leider zu wenig Beschichtung bekommen hat, braucht er 0,000000x Einheiten mehr oder weniger Strom um so zu leuchten wie er soll.

Ergo haben wir unser .icc, da steht drin: "Hey, Grafikkarte, Betriebssystem und Monitor! Maul halten und zuhören! Immer wenn ihr rechts oben bis mitte mitte beacktert brauchen wir soviel Strom wie wir für #123456 nehmen würden, damit #123456_ korrekt dargestellt wird?

Bleibt immer noch die Frage, woher die drei von der Farbstelle wissen sollen, wie kaputt der Monitor an der Stelle ist.

Wer nichts weiß wie ich, darf Fragen stellen, ganz ohne Tonne! Und jetzt schaue ich mal, ob ich in der großen Bibliothek was zu Monitoren finde.
Beitrag automatisch zusammengeführt:

Leider in ausländisch:
LED Lighting by Sal Cangeloso

Wenn ich nur wüsste nach welchen deutschen Wörtern ich da suchen soll?

...

Nach ein bisschen einlesen, sitzt also hinter jedem Pixel ein Transistor. Und wie kommt der Strom jetzt zu Nummer 901,804? Die werden ja wohl keine 16 Millionen Drähte zum Stromverteilerchip gelegt haben? Sind die alle hintereinander geschaltet und wir fahren immer noch Schlitten von 1,1 bis Zeilenende und dann irgendwie weiter?

------------
***********|
------------
|
------------
 
Zuletzt bearbeitet:
Die Grafikkarte wirft also 8-Bit Farben raus, aber wegen Streuung und Tageslaune sind das mal diese 8-Bit-Farben und mal jene 8-Bit-Farben?
Wenn wir von 8-bit Graphikkarten mal ausgehen (es gibt wie gesagt schon 10 bit), dann kommt aus einer digitalen Graphikkarte immer die gleiche Farbe raus, bzw. der gleiche Code.

Der Code ergibt sich aus dem Pixelwert (r,g,b) wobei r,g,b im Bereich 0 bis 255 liegt, angewandt auf pro Komponente eine Tabelle. Also,

r_out = LUT_r[r]
g_out = LUT_g[g]
b_out = LUT_b

Das sind also drei Tabellen zu je 256 Einträgen. Normalerweise sind diese Tabellen so belegt, dass der Eintrag #0 den Wert 0 enthält, der bei 1 den Wert 1 und so weiter. Will man jetzt etwa den Gamma-Wert erhöhen so muss man für die kleineren Tabelleneinträge (entsprechend den dunkleren Pixelwerten) größere Zahlen hinterlegen, also etwa für den Eintrag #1 eine 2 statt eine 1. Dadurch wird alles heller. Wenn die Tabellen so gebaut werden, dass sie genau einer Potenz-Funktion entsprechen, so erzeugt man eben eine Gamma-Korrektur. Wenn man die Tabellen unterschiedlich bestückt, so verschiebt sich der Weißpunkt.

Die Farben des Monitors unterscheiden sich aber, weil das eben ein analoges Gerät ist. Die Hintergrundbeleuchtung altert, der Weißpunkt ändert sich, die Steuerkennlinie der Pixelansteuerung ist nicht genau kalibriert, usw. Dementsprechend gibt es auch entsprechende Tabellen im Monitor, die die Signale der Graphikkarte in Spannungen übersetzen, mit denen die Transistoren der Pixel angesteuert werden. Und auch die unterscheiden sich von Panel zu Panel.

Und wenn wir was ändern an der Übersetzungstabelle sowieso, weil wir ja nicht Farbe 34985 bis 34999 ändern, sondern irgendeine Rechenvorschrift, die dann gleich wieder den ganzen Farbraum ändert, oder?
Ja, dadurch verändert sich der Farbraum.

Wobei das Quatsch ist, denn die Karte kann nur x Farben? Oder kann sie x Farben, aber spuckt jeweils nur y aus, so dass wir da ein bisschen variabel sind.
Eine 8-bit Karte kann nur 256^3 Farben, und durch die Übersetzung in der Graphikkarte können es nur weniger werden. Wenn man etwa dunklere Pixel heller abbilden will, muss man in den Tabellen für kleinere Tabellenindizes größere Werte hinterlegen, aber dann bleiben eben weniger große Werte übrig für den Rest der Einträge.

Beispiel für ein "triviales" 4-bit Panel: Im Normalfall sähe die Tabelle so aus:
0->0,1->1,2->2... 15->15

Jetzt sollen die dunkleren Farben heller werden:

0->0,1->2,2->3,3->5,.... und weil man jetzt schon die Wert 2-5 als Einträge verbraucht hat, aber noch 13 Einträge zu füllen hat, muss man einige Zielwerte doppelt verwenden, und darum gibt es eben weniger Farben.

Bei 256^3 Farben ist das üblicherweise allerdings so wenig, dass es nicht auffällt.

Und was sind diese Farben eigentlich, die die Karte spuckt? Sie wird ja keine riesen Excel-Liste mit Werten in die Post geben?
Bei VGA waren es wirklich Spannungswerte, die aus dem "RAMDAC" herauskamen (Digital-Analog-Converter), aber heute werden diese Zahlen digital über die Display-Schnittstelle übermittelt, seriell meist.


Eher eine Art allgemeiner Anweisung wie: Wir nehmen mal für rot: mathematischer Kauderwelsch1, was in Abhängigkeit von mathematischem Kauderwelsch2 für blau in Kombination mit mathematischem Kauderwelsch3 und einer etwas beschränkten Formel für grün ganz schön viele Farben sind?
Nein, keine Anweisungen, das ist zu kompliziert. Es sind wirklich nur drei Tabellen in der Graphikkarte, mit je als 256 Einträgen. Also, 256x3 Bytes, sehr einfach implementiert. Mehr macht die Farbkalibrierung meines Wissens auf der Graphikkarte nicht.


Und was macht der Monitor eigentlich damit? Den Braun haben sie abgeschafft und in eine hölzerne Röhre gelegt, der hätte ja sonst vielleicht jedes einzelne Pixel mal angeschossen. Und das mit Licht in unterschiedlichen Wellenbreiten sowie Wellenhöhen für die Helligkeit (Hah! Hab was gelernt heute!). Aber wie auch immer, ein LED-Monitor muss ja irgendwie auch was drauf- oder dranschießen, damit unser Pixel an der richtigen Stelle rot wird.
Der Monitor nimmt die digitalen Signale aus der Display-Schnittstelle, und berechnet daraus Spannungen (oder Ströme), mit der die Pixel-Transistoren angesteuert werden, und die verdrehen (oder ent-drehen) die Flüssigkristalle bei einem LCD-Monitor, und die verdrehen die Polarisationsebene des Lichtes, welches hindruchtritt.


Ergo haben wir unser .icc, da steht drin: "Hey, Grafikkarte, Betriebssystem und Monitor! Maul halten und zuhören! Immer wenn ihr rechts oben bis mitte mitte beacktert brauchen wir soviel Strom wie wir für #123456 nehmen würden, damit #123456_ korrekt dargestellt wird?
Ein icc-Profil besteht im einfachsten Falle(!) auch nur aus drei Tabellen (für rot-grün-blau), allerdings kann man damit eigentlich noch sehr viel mehr machen.

In diesem Repo:


gibt es etwa ein kleines Python-Script "icc.py" welches den Inhalt eines icc-Profiles in einem menschenlesbaren Format anzeigen kann.

Bleibt immer noch die Frage, woher die drei von der Farbstelle wissen sollen, wie kaputt der Monitor an der Stelle ist.
Indem es Windows beim Systemstart aus dem icc-Profil in die Graphikkarte lädt. Unter Linux geht das etwa mit "xgamma".


Nach ein bisschen einlesen, sitzt also hinter jedem Pixel ein Transistor. Und wie kommt der Strom jetzt zu Nummer 901,804? Die werden ja wohl keine 16 Millionen Drähte zum Stromverteilerchip gelegt haben? Sind die alle hintereinander geschaltet und wir fahren immer noch Schlitten von 1,1 bis Zeilenende und dann irgendwie weiter?
Sie sind als Matrix angelegt, also Strom an Zeile X Spalte Y steuert den Transistor für Position X,Y an. Der speichert den Wert für eine Weile.

Die Signale auf der Display-Schnittstelle beinhalten grob gesprochen die Ansteuerwerte in Rasterordnung, von link snach rechts, von oben nach unten.
 
Ihr diskutiert das "Problem" auf einer technisch ungünstigen und auf einen bestimmte technologie bezogenen Ebene.

Im sogenannten RGB wert Steckt eigentlich nur die Info wie Hell die einzelnen Farben Rot, Grün Blau leuchten sollen.
Bei 8-bit rgb heißt je farbe:
0 = dunkel
255 = volle kanne an

Aber was heißt volle kanne an? Und was ist Rot, Grün bzw Blau? Hier kommt der Farbraum und der mcd Wert ins Spiel.
Diese beiden definieren welche Wellenlänge und Helligkeit der Wert 255 haben soll.

Dieser Wert wird jetzt vom Bild zum Anzeigegerät übertragen.
Ohne Kalibrierung wird das Anzeigegerät in fast 100% der Fälle nicht die im Farbraum definierten Werte treffen.

Im Endeffekt ist jede Kalibrierung quasi eine Tabelle mit einträgen für jede Abstufung.
Dabei ist es egal ob dies im PC geschieht wo jeder einzelne RGB wert so umgebogen wird damit auf dem Bildschirm die gewünschte Farbe kommt.
Oder ob dies im Bildschirm geschieht und der seine Ansteuerung der Pixel verbiegt.

Beiden Varianten haben das selbe Problem. Es kann nur dunkler als der Maximal wert gemacht werden.
Wird ein hellerer Wert benötigt kann dieser schlicht nicht dargestellt werden

Der "Vorteil" der Kalibrierung im Bildschirm ist, dass keine zwischenstufen verloren gehen.
Wenn der Hauptgrund für die Kalibrierung ist, dass man keinen Farbstich hat kann man aus meiner Sicht auf die fehlenden zwischenstufen verzichten.

Farbkalibrierung ist ein Thema auf das man viel Aufwand und Geld schmeißen kann.
Jemand der an dieser Stelle das Beste braucht weiß dann auch was er braucht und wird es evtl auch investieren.
Für alle anderen genügt wahrscheinlich die simpelste Variante.
Und falls die simpelste Variante nicht genügt gehört er bald zu denen die Wissen was sie brauchen ;)
 
Nein, sicherlich nicht, und bestimmt nicht, was in Laptops verbaut ist. Hier herrscht 8 bit/Kanal vor, und das reicht. Es gibt für einige (teurere) Graphikkarten die Möglichkeit für 10 Bit Ausgabe (pro Kanal) und es gibt auch ein paar teurerere Panels, die das entgegennehmen, aber das findet man auch eher im gehobenen Preissegment. Ebenso arbeitet Windows im allgemeinen mit nur 8 bit/Kanal, wenngleich es durchaus professionelle Software gibt, die schon einen 10bit Workflow anbietet.

Warum 10 bit? Weil 3 Farben * 10 bit = 30 bit ergeben, und das liegt knapp unter der Untergrenze von 32bit/Pixel, was eine bequeme Größe für die Rechner ist.

Also mein oller E570 hat eine Nvidia GTX 950 und ich bin mir relativ sicher, dass ich seinerzeit gelesen habe, dass diese 12-Bit hat. Aktuell finde ich das zwar nicht wieder, so dass ich mir vorstellen kann, dass es intern 12-Bit sind, die Ausgabe dann aber nur mit 8-Bit erfolgt.

Der 2. Satz ist so aber Unsinn. Bei der Bildverarbeitung muss jeder Farbkanal einzeln verarbeitet werden. Die 3 RGB-Komponenten bilden zusammen zwar 1 Farbe, aber bis hin zum Display sind es 3 LEDs, die für die Anzeige benötig werden und die wir dann lediglich als 1 farbigen Pixel wahrnehmen. 3 Farbinformation rechnerisch als 1 Zahl zu behandeln geht einfach nicht!
In der Bildverarbeitung sind daher die 8-Bit Verarbeitung je Kanal (-> JPG-Standard, 24-Bit=16 Mio. Farben) gebräuchlich und die nächste Stufe sind dann 16-Bit. Das ist dann mehr als ausreichend, um die derzeit maximal 14-Bit Farbtiefe, die heutige Sensoren in Digital-Kameras liefern können, verarbeiten zu können.

Grüße Thomas
 
Ihr seid die Besten der Besten. Dass ich das noch erleben darf, dass in Foren mit so viel Infos geworfen wird. Ich bin allerdings „mit der Matrix“ nicht einverstanden, dass ist mir zu wenig konkret! Ich hin gerade acht Jahre alt und muss das vor mir sehen können.

Wir haben eine Glasplatte bzw. eine Beschichtung mit Flächen, die wir Pixel nennen, besteht aus irgendwas, das so verändert wurde, dass man Strom hinjagen kann und die Fläche sich verändert (ich bleibe ungefähr, das lese ich gleich nochmal nach). Hinter jedem Pixel sitzt ein Transistor, ein Dingens, das Stromfluss regelt, so ne Art Rohrsystem mit Klappen und Verschiebebahnhof (lese ich auch gleich nochmal nach).

Der Strom muss da jetzt irgendwie hin!

Z.B. durch Durchfluß mit Infocharakter. Ich bin für 33,897 gedacht und renne durch bis an meinen Zielbahnhof, dort steige ich aus?

Oder ist die Matrix eine Platte mit Anzahl Pixel mal kleinen Nubbeln, die je einen Transistor bedienen, und dazu gibt es Plattenstrom statt Leitungsstrom, dann bleibt immer noch die Frage, wo wie die Info verpackt ist.

Von vorne: Grafikkarte schiebt Excelliste mit Farbwerten rüber, wie gewohnt ist #000000 schwarz und #ffffff weiß. Mehr Farben als 256x256x256 haben wir dann nicht.

Ein LAB-Monitor würde dann an der Stelle genauso funktionieren, nur mit mehr Werten (spannendes Thema, lese auch das nachher nochmal, z.B. werden Farben, die wir nicht unterscheiden können, zusammengefasst.)

Wenn aber eine Excelliste genutzt wird, kann ich ganz genau die #b80000 (müsste ein schönes Rot sein) ändern, weil der Monitor sich hier doof anstellt.

Evtl. gibt es bei der Excelliste noch eine Art RAR-Verpackung, sprich Muster werden gesichtet und durch einen kürzeren Code ersetzt? Weil diese Liste sonst ganz schön lang ist, oder? Und das Framerate mal pro Sekunde?

Ok, die Übersetzung ist durch, der Monitor bekommt Post. Wir sind wieder bei der Matrix. Keanu steht breitbeinig vor dem Schirm, hat alle Hände voll zu tun, wie kommen die Werte jetzt konkret zum Pixel?

Und apropos Braunsche Röhre, hatte die eigentlich eine bewegliche Abschußvorrichtung und zielte immer genau ein auf Pixel?


PS: Ist das eine ältere Xenforo-Version? Sie reagiert anders auf meinem IPad und auch die Icons im Editor sind anders.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben