Artykuł

Artykuł ukazał się w numerze 11 (II/2004) kwartalnika 2+3D

Typografia

Gutenberg, Zapf, Knuth

16 października 2012

Artykuł archiwalny

Tekst poświęcony wybranym zagadnieniom optymalizacji składu tekstów ciągłych i trzem zasłużonym na tym polu twórcom. Wyjaśnia, dlaczego na wyraźny postęp w tym zakresie trzeba było czekać ponad pięćset lat.

Gutenberg 1455

Jan Gutenberg ukończył 42-wierszową Biblię w roku 1455. Jak to możliwe, że jedno z pierwszych drukowanych dzieł po ponad pięciu wiekach nadal uchodzi za niedościgniony wzór estetycznie złożonego tekstu ciągłego?

1. Jeden z łamów 42-wierszowej Biblii wydrukowanej przez Gutenberga

1. Jeden z łamów 42-wierszowej Biblii wydrukowanej przez Gutenberga

1. Jeden z łamów 42-wierszowej Biblii wydrukowanej przez Gutenberga

Pierwszorzędne znaczenie przy składaniu ma zachowanie jednolitej szarości łamu. Przerwy między wyrazami nie powinny być ani za duże, ani za małe – w obrazie łamu nie mogą pojawić się białe wyrwy. Oczywiście im krótszy wiersz, tym trudniej to osiągnąć, a wiersze w Biblii Gutenberga są wyjątkowo krótkie – mają po około 30 znaków, czyli co najmniej dwa razy mniej niż współczesne książki. Jakich zabiegów użył Gutenberg, aby w tak krótkich wierszach utrzymać jednakowe i zbliżone do optymalnych (szerokość litery „I”) odległości międzywyrazowe? Podstawową techniką, jaką w tym celu zastosował, było użycie wielu wariantów: a to pojedynczych znaków, a to kombinacji znaków (np. ligatur1), a to całych wyrazów (np. skrótów). Garnitur wersji znaków użytych do złożenia Biblii liczył 290 pozycji. Dzięki temu, mistrz mógł podczas składania wybierać z materiału literniczego różnej szerokości. Oczywiście dopasowywanie go tak, aby osiągnąć właściwe odstępy międzywyrazowe i dodatkowo równy rytm pionowych elementów, było bardzo czasochłonne – trwało całe lata – ale efekt jest do dzisiaj oszałamiający.

2. Znaki użyte do złożenia 42-wierszowej Bilblii

2. Znaki użyte do złożenia 42-wierszowej Bilblii

2. Znaki użyte do złożenia 42-wierszowej Bilblii

Drugim wykorzystanym przez Gutenberga zabiegiem było optyczne wyrównanie prawego marginesu, co oznacza, że prawa krawędź łamu w rzeczywistości nie jest linią prostą. Niektóre drobne znaki – dywizy, przecinki czy kropki – są nieco wysunięte w prawo i właśnie dzięki temu łam wydaje się równy. Różnica jest wyraźna – faktyczne wyrównanie wszystkich znaków do przyjętej linii wcale nie daje wrażenia prostej krawędzi, bo przy tych najdrobniejszych powstaje efekt niewielkich wcięć.

Czy techniki zastosowane przez Gutenberga można dziś wykorzystać przy składaniu tekstów ciągłych? Jest kilka uwarunkowań, które nieco komplikują jednoznaczną odpowiedź na to pytanie. Po pierwsze, zmieniają się przyzwyczajenia czytelników. Większość ligatur i skrótów stosowanych w czasach Gutenberga dawno wyszła z użycia, więc współcześnie wyglądałyby nieco dziwnie. Druga przeszkoda ma charakter technologiczny. O ile zabiegi Gutenberga są do powtórzenia w technologii przez niego stosowanej – przy druku ruchomymi czcionkami, o tyle w późniejszych technologiach – druku monotypowym, linotypowym czy fotoskładzie – były raczej trudne do zastosowania. Wreszcie, po trzecie, Gutenberg tworzył Biblię kilka lat, nie był to więc proces szczególnie szybki. Dziś trudno sobie wyobrazić, aby można było poświęcać tyle czasu każdej przygotowywanej publikacji. Czy sprawa jest więc przegrana i jesteśmy skazani na niską jakość typograficzną tekstów ciągłych?

Okazuje się, że trzeba było czekać setki lat, aby rozwój technologii pozwolił sięgnąć po rozwiązania genialnego niemieckiego drukarza i wdrożyć je tak, żeby piękne dzieła mogły powstawać w rozsądnym czasie. Umożliwiły to oczywiście komputery.

Zapf 1993

W 1993 roku hamburska firma URW zaprezentowała program HZ (hz-program). HZ to inicjały Hermanna Zapfa, niemieckiego projektanta i typografa, który miał największy udział w jego powstaniu. Program HZ składa się z kilku modułów, które miały wprowadzić techniki Gutenberga do składu komputerowego ery desktop publishing. Zapf otwarcie stwierdził,
że bezpośrednią inspiracją jego prac była analiza 42-wierszowej Biblii.

Pierwszy z modułów, kf-program, odpowiada za kerning2. Większość programów desktop publishing czerpie informacje o kerningu z fontów – są tam umieszczane na stałe przez projektanta. Takie podejście ma jedną zasadniczą wadę. Otóż niezależnie od stopnia pisma, jakim składany jest tekst, kerning jest zawsze taki sam, a powinien być od tej zmiennej zależny: im mniejszy stopień pisma, tym większe powinny być odległości międzyliterowe. W większości fontów kerning jest optymalizowany dla pisma wielkości 12 punktów. Są też dalsze niedogodności takiego rozwiązania: jakość kerningu zależy od umiejętności i pracowitości projektanta fontu; liczba par kerningowych (par liter, dla których został określony) jest ograniczona, może to być kilka tysięcy par, ale zdarza się, że jest ich zaledwie kilkadziesiąt.

Moduł kf oblicza kerning dla każdej pary liter w czasie rzeczywistym, zależnie od kształtu znaków. Bierze przy tym poprawkę na stopień pisma, jakim składany jest dany tekst. W ten sposób wyeliminowane zostają wszystkie wymienione powyżej wady systemu czerpania danych o kerningu z fontu. A dzięki temu, że moduł kf potrafi analizować rzeczywiste kształty znaków, łatwo jest odpowiednio wysunąć je za krawędź łamu dla osiągnięcia efektu optycznego wyrównana marginesów.

Drugi moduł – Εk – w razie potrzeby wybiera i nieznacznie modyfikuje szerokość tych znaków, których zniekształcenie nie będzie zbyt widoczne. Korekta dotyczy np. wewnętrznego światła znaków, a nie ich kresek. Rezultatem działania modułu jest większa swoboda przy podziale akapitu na wiersze, bo można je dodatkowo skracać lub wydłużać.

Za znajdowanie optymalnych miejsc podziału akapitu na wiersze
i dzielenie wyrazów odpowiada trzeci moduł: jp-program. W odróżnieniu od większości programów desktop publishing, które wyznaczają miejsce podziału po analizie kolejnych, pojedynczych wierszy i nie weryfikują decyzji po zbadaniu sytuacji w następnym fragmencie tekstu, jp-program robi to po analizie całego akapitu i wybiera rozwiązanie, w którym odległości między wyrazami są optymalne dla całości i nie różnią się zbytnio w sąsiadujących wierszach.

Program HZ pozostałby prawdopodobnie teoretyczną wprawką z zakresu optymalizacji składu i bezpowrotnie trafił do archiwów, gdyby firma Adobe nie postanowiła wyprodukować programu konkurencyjnego dla QuarkXPress, dominującego na przełomie wieków na rynku programów dtp. Tak powstał InDesign, w którym wdrożono filozofię większości modułów opracowanych przez Hermanna Zapfa. Nie są to wprawdzie te same algorytmy, a procedury napisano od nowa, ale przyjęto przy tym tę samą zasadę działania. Przyjrzyjmy się zatem bliżej możliwościom programu.

Pierwsza ilustracja pozwala porównać składy tego samego fragmentu, podzielonego dwoma metodami:
po lewej – drogą analizy całego akapitu (Adobe Paragraph Composer), a po prawej – na podstawie analizy pojedynczych wierszy (Adobe Single-Line Composer).

Różnice są szczególnie widoczne w wierszach: siódmym od góry i drugim od dołu. Nie ma wątpliwości, który z akapitów ma lepiej zrównoważone odległości międzywyrazowe.

Następna ilustracja przedstawia rezultat optycznego wyrównania marginesów (Optical Margin Aligment).

Tekst z wyrównanymi optycznie marginesami – po lewej – jest niewątpliwie bardziej estetyczny.

Dolny wyraz na poprzedniej ilustracji został złożony przy wykorzystaniu kerningu zaczerpniętego z fontu (Metrics Kerning), skład górnego to efekt działania opcji kerningu obliczanego w czasie rzeczywistym (Optical Kerning). Wydaje się, że odległości międzyliterowe są lepsze przy kerningu dobieranym „w locie”. Dużo lepsze jest choćby zestawienie „Pet”.

Na kolejnej ilustracji przedstawiono po lewej stronie wersję składu z modyfikacją kształtu glifów3 (Glyph Scaling), a po prawej – bez takiej modyfikacji.

Nie jest do końca jasne, czy regulacji szerokości glifów poddawane są tylko niektóre znaki, dobierane pod kątem zmniejszenia widoczności takich zabiegów, czy jest to po prostu proporcjonalna zmiana ich szerokości w całym wierszu. Jednak nawet w tym drugim przypadku osiągnięty efekt wart jest ryzyka, tym bardziej że granice tej zmiany zostały określone zaledwie na 3 procent – takie różnice można wykryć chyba tylko metodą mikroskopowej analizy porównawczej.

Ostatnia ilustracja przedstawia różnicę między tekstem po wprowadzeniu wszystkich modyfikacji (poprzednia ilustracja), a pierwotnym tekstem (pierwsza ilustracja).

Obraz akapitu po lewej jest nieporównanie lepszy. I pomyśleć, że tak znaczne polepszenie wyglądu tekstu nie byłoby możliwe, gdyby pewien niemiecki typograf nie zaczął analizować dzieła pewnego niemieckiego drukarza, a pewna amerykańska firma nie postanowiła wyprzeć z rynku innej amerykańskiej firmy…

Czy gdyby nie opisany powyżej ciąg zdarzeń, nie moglibyśmy dzisiaj dobrze składać tekstów? Niekoniecznie, istnieje bowiem rozwiązanie alternatywne. Przyjrzyjmy się, jak do tego doszło.

Knuth 1977

Kiedy w 1977 roku profesor Donald E. Knuth z Uniwersytetu Stanforda dostał od wydawcy próbne wydruki wznawianej Sztuki programowania
(The Art of Computer Programming), swojego dzieła życia, widok książki przeraził go. Poprzednie edycje składano na monotypie, który w 1977 roku wyszedł już z użycia, zastąpiony przez fotoskład. Knuth stwierdził, że skoro tak paskudnie mają wyglądać książki, którym poświęcił 15 lat życia,
to woli nie napisać już ani słowa, i że jako naukowiec, powinien spróbować coś z tym zrobić. Postanowił napisać program, przy pomocy którego będzie mógł złożyć własną książkę w sposób, który go zadowoli. Szacował, że nie powinno to zająć więcej niż 6 miesięcy…

Zajęło prawie 10 lat, ale powstał program, który składa teksty o najwyższej jakości typograficznej. Nazywa się TEX (wym. tech) i jest rozpowszechniany całkowicie bezpłatnie. TEX jest ponadto przykładem sztuki programowania najwyższych lotów. Co więcej, autor złożył deklarację, że zapłaci za każdy znaleziony w programie błąd. Ostatnia wypłata – za błąd numer 933 – nastąpiła 20 marca 1995 roku. Przypuszczalnie jest to już bezbłędny i najbardziej stabilny program na świecie.

TEX szczególnie dobrze nadaje się do składania wyjątkowo trudnych dokumentów o specyficznej strukturze, np. słowników czy encyklopedii. Znakomicie składa się w nim nawet najbardziej skomplikowane wzory matematyczne.

W ramach projektu powstał algorytm podziału akapitów na wiersze, zwany total-fit, który robi to na podstawie analizy całego dzielonego fragmentu. Istnieje też rozszerzenie pdfTEX, umożliwiające optyczne wyrównywanie marginesów. Program Knutha jest tak otwarty i uniwersalny, że z góry można darować sobie pytanie: Czy da się to zrobić w TEX-u? Właściwie postawione pytanie brzmi: Jak to zrobić w TEX-u?

Skoro TEX jest tak doskonały i do tego jest za darmo, to dlaczego jest tak mało popularny? Przyczyną jest trudna obsługa – składanie tekstów w TEX-u przypomina pracę programisty. Nie jest to system wizualny (ang. WYSIWYG – what you see is what you get), program obsługuje się komendami. Nie każdemu to odpowiada, ale jak stwierdził sam Knuth: TEX nie jest dla każdego, tylko dla tych, którym zależy na typografii najwyższej jakości.

Bibliografia
 [1] Robert Bringhurst, The Elements of Typographic Style, Washington 1997.
 [2] Warren Chappell, Robert Bringhurst, A Short History of the Printed Word, Washington 1999.
 [3] Sven Dahl, Dzieje książki, Wrocław, Zakład Narodowy im. Ossolińskich, Wrocław 1965.
 [4] James Felici, The Complete Manual of Typography, Berkeley 2003.
 [5] Goeffrey Dowding, An Introduction to the History of Printing Types, London 1998.
 [6] Johannes Gutenberg 1400–1468. Sztuka drukarska zmienia świat [katalog wystawy zorganizowanej przez Institut für Auslandsbeziehungen w Stuttgarcie].
 [7] Donald E. Knuth, Michael F. Plass, Breaking Paragraph Into Lines, w: Digital Typography,  Stanford 1999, s. 67–155, pierwotnie opublikowany w: „Software – Practice and Experience” 1981, no. 11, s. 1119–1184.
 [8] Donald E. Knuth, Computers and Typesetting, w: Digital Typography, Stanford 1999, s. 555–562, pierwotnie opublikowany w: „TUGboat” 1986, no. 7, s. 95–98.
 [9] Donald E. Knuth, The Final Errors of TEX, w: Digital Typography, Stanford 1999, s. 655–662.
[10] Donald E. Knuth, The TEXbook. Reading, Massachusetts 1986.
 [11] Han The Thanh, Micro-Typographic Extensions to the TEX Typesetting System, Brno 2000.
 [12] Questions and Answers, II, w: Digital Typography, Stanford 1999, s. 601–624, pierwotnie opublikowany w: „TUGboat” 1996, no. 17, s. 355–367.
 [13] Hermann Zapf, About Micro-Typography and the Hz-Program, Hamburg 1993, vol. 6 (3), s. 283–288.

Źródła ilustracji
1. Reprodukcja za [4], s. 6.
2. Reprodukcja za [5], 3-34.
3. Rysunek podarowany Donaldowi E. Knuthowi około roku 1980 przez nieznaną osobę; reprodukcja za: Donald E. Knuth, Digital Typography. Stanford, CSLI Publications, 1999, s. 1.

1. Ligatura – znak stanowiący połączenie dwóch lub trzech liter.
2. Kerning – regulacja świateł międzyliterowych.
3. Glif – kształt realizujący dany znak pisma.

Komentarze

  • pml
    22 października 2012
    zgłoś do moderacji
    Bardzo miło, że na portalu 2+3 pisze się o TeX-u!

    Swoją drogą ciekawym byłoby przedstawić porównanie możliwości inDesigna oraz TeXa (np. trudno jest oblać ilustarcje tekstem w TeX-u, choć już łatwiej w ConTeXt-e)

    serdeczności
    pml

Szukaj nas na Facebooku

Szukaj