Und doch handhaben es Graphikkarten so. (-: Die üblichen Pixelformate sind alle daraufhin ausgerichtet, für die CPU und den Bus möglichst praktisch zu sein. Wir haben (hatten) Chunky = 8-bit Pixel mit Palettenlookup, Hi-Color (15/16 bit), bei dem ein Pixel genau in ein 16-bit Word hineinpasst (mit einem Stencil-Bit bei 15-bit), True-Color (32-bit) mit 8-bit Pixeln, wobei ein Byte für den Alpha-Kanal frei bleibt, als Sonderfall 24-bit True-Color ohne Alpha mit 3 Byte/Pixel und eben 30-Bit TrueColor, bei dem 2 bit /Pixel frei bleiben.Der 2. Satz ist so aber Unsinn. Bei der Bildverarbeitung muss jeder Farbkanal einzeln verarbeitet werden. Die 3 RGB-Komponenten bilden zusammen zwar 1 Farbe, aber bis hin zum Display sind es 3 LEDs, die für die Anzeige benötig werden und die wir dann lediglich als 1 farbigen Pixel wahrnehmen. 3 Farbinformation rechnerisch als 1 Zahl zu behandeln geht einfach nicht!
Gucke Dir halt die Datenblätter von üblichen Graphikkarten an.
Diese Formate existieren nicht von ungefähr, es ist technisch bedingt, weil die üblichen Bus-Breiten Vielfache dieser Einheiten sind und es technisch einfach schwierig wäre, "ungerade" Formate zu realisieren.
Nein, zeig mir mal eine Graphikkarte mit 16-bit Ausgabe. Ich kenne sowas nicht. Übrigens, JPEG kann nur 8 bit und 12-bit, leider kein 10-bit, aber das ist eine andere Geschichte. Graphikverarbeitung mag internl 16-bit verwenden, aber der Framebuffer der Graphikkkarte ist trotzdem heute maximal 10 bit breit.In der Bildverarbeitung sind daher die 8-Bit Verarbeitung je Kanal (-> JPG-Standard, 24-Bit=16 Mio. Farben) gebräuchlich und die nächste Stufe sind dann 16-Bit.
Das sind 14-bit RAW "Linear Gamma". Da brauchst Du aus den oben genannten Gründen schon etwas mehr Bits, um größeren Dynamikumfang herauszuholen.Das ist dann mehr als ausreichend, um die derzeit maximal 14-Bit Farbtiefe, die heutige Sensoren in Digital-Kameras liefern können, verarbeiten zu können.