Archiwum Główne Akt Dawnych w Warszawie – strona główna

ABBY SMITH


[Abby Smith jest od 1997 r. dyrektorem programów w Council on Library and Information Resources (CLIR). Przez 9 lat do 1997 r. Pani A. Smith pracowała w Bibliotece Kongresu, jako koordynator wielu programów kulturalnych i akademickich. Kierowała też projektem mikrofilmowania zabezpieczającego w byłym ZSRR oraz była kuratorem trzech wystaw prezentujących rosyjskie skarby biblioteczne i archiwalne.
Tekst publikujemy w internecie za
zgodą Council on Library and Information Resource. W wersji drukowanej pojawił się on w
materiałach z Powszechnego Zjazdu Archiwistów Szczecinie we wrześniu 2002 r.]

DLACZEGO PRZEKSZTAŁCAĆ NA POSTAĆ CYFROWĄ?

"Marzenie o wirtualnej bibliotece pojawiło się teraz nie dlatego, iż by stanowiło obietnicę ekscytującej przyszłości, ale ponieważ jest to obietnica przyszłości, która będzie taka jak przeszłość, tylko lepsza i szybsza".

James J. O’Donnell, Avarts of the Word

PRZEDMOWA1

  Przekształcanie materiałów bibliotecznych na postać cyfrową nabrało tempa w ciągu ostatnich kilku lat. Dyskretyzacja ze zdumiewającą prędkością obiecuje zwiększanie swojego zasięgu i poprawę dostępnych możliwości. Można ją zastosować do nieomal wszystkich nośników i formatów znajdujących się obecnie w bibliotekach, począwszy od map i rękopisów po nagrania muzyczne. Wykorzystanie sprzętu komputerowego i oprogramowania do cyfrowych ujęć obiektów i przekształcania ich na bity i bajty, skojarzone z szybkim rozwojem praktyki opisywania i wyszukiwania cyfrowych obiektów, nadają kształt realny myśli o "bibliotece bez murów". Lecz taka wirtualna biblioteka ma całkiem realną cenę. Ludzie zarządzający instytucjami kultury i ci bezpośrednio odpowiedzialni za działania związane z dyskretyzacją często muszą się napracować nie tylko po to, aby zrozumieć nową technologię, ale także – co ważniejsze – aby pojąć jej znaczenie w odniesieniu do ich zbiorów oraz ich instytucji, patronów i publiczności.

  Poniższy tekst powstał jako odpowiedź na dyskusję o dyskretyzacji podczas spotkania w National Humanities Alliance (NHA). NHA poprosiło Council on Library and Information Resource (CLIR) o ocenę doświadczeń płynących z projektów instytucji kulturalnych w tym zakresie; o ocenę dotychczasowego stanu i próbę podsumowania wiedzy na temat zysków i niedogodności wynikających z przekształcania ważnych z punktu widzenia kultury materiałów na postać cyfrową. Jak można oczekiwać z wcześniejszego rozwoju tej popularnej, choć wciąż jeszcze eksperymentującej technologii, doświadczenia są odmienne, zależnie od instytucji. Uogólnienia są ryzykowne, ale CLIR – aktywnie zaangażowane przy wspieraniu wdrożeń cyfrowej technologii dla bibliotek – podjęło taką próbę w przekonaniu, że ważne jest przedstawienie nawet wstępnych ocen wpływu tej nowej technologii na tradycyjną rolę bibliotek.

Stwierdzono, że dyskretyzacja niesie ze sobą wzrost oczekiwań co do korzyści, skuteczności (wydajności) i zmniejszenia kosztów. Oczekiwania te mogą okazać się złudne. Co więcej, jeżeli nie podejdzie się do tych spraw realistycznie, mogą one narazić na szwank zasoby i usługi świadczone przez biblioteki od dziesięcioleci. Jedno takie fałszywe oczekiwanie, że dyskretyzacja już zastępuje albo wkrótce zastąpi mikrofilmowanie, jako właściwy sposób zabezpieczenia zbiorów, może mieć nieodwracalne skutki utraty informacji. W tym tekście starano się nie podnosić fałszywych alarmów, ale zachęcić fachowców odpowiedzialnych za różne aspekty ochrony dóbr kultury do oceny tej nowej technologii, z nadzieją pohamowywaną przez cierpliwość i wiedzę płynącą z doświadczenia.

WPROWADZENIE

  W cyfrowym świecie całość wiedzy jest podzielona na dwie części. Binarne ciągi zer i jedynek, tworzące genetyczny kod danych pozwalają, aby informacja była wzbogacana i pomnażana. Umożliwia to nam tworzenie, manipulowanie i – wspólne wykorzystywanie danych w sposób iście rewolucyjny. Często mówi się, że cyfrowa informacja przekształca sposób, w jaki się uczymy, porozumiewamy, a nawet myślimy. Ona zmienia nie tylko sposób, w jaki bibliotekarze i archiwiści wykonują swoją pracę, ale samą jej istotę. Łatwo jest zarówno przecenić, jak i nie docenić znaczenia przemian, jakie się wiążą z nową technologią. Zwłaszcza wtedy, gdy jeszcze nie w pełni rozumiemy znaczenie jej wszechstronnego zastosowania. Tym niemniej ludzie przyjmują tę technologię z entuzjazmem, często jako odpowiedź na pytania w wielu przypadkach jeszcze nie sprecyzowane. Bibliotekarze na całym świecie słyszą ludzi głoszących swego rodzaju Ewangelię, nalegających na przekształcenie na postać cyfrową tekstów i materiałów wizualnych, tak jakby to przetworzenie było samo w sobie oczywistym dobrem. Ponieważ jednak mamy skłonność postrzegania przyszłości w kategoriach teraźniejszości, jak to podkreślił O’Donnell, taka projekcja teraźniejszości na przyszłość może być, w najlepszym przypadku myląca. Jeżeli ta nowa technologia okaże się istotnie rewolucyjna, to jej całkowitego oddziaływania dziś jeszcze nie sposób w pełni przewidzieć. Powinniśmy być więc ostrożni, aby blask jasnej przyszłości nie zaślepił nas na jej ograniczenia.

  Wprawdzie jeszcze nie w pełni rozumiemy sposób, w jaki ta technologia zmieni zakres działania bibliotek, a w jaki pozostawi go bez zmian, ale już teraz możemy dostrzec pewne proste, a jednak niezwykle ważne, wzorce w zastosowaniu technologii cyfrowej. Stanowią one ostrzeżenie co do jej efektywnego i twórczego wykorzystania przy tradycyjnych funkcjach w bibliotece: gromadzeniu, zabezpieczaniu i udostępnianiu informacji. Masa krytyczna doświadczeń jest już gromadzona w bibliotekach i archiwach zaangażowanych przy dyskretyzacji części ich zasobów, poczynając od takich instytucji, jak Biblioteka Kongresu i Archiwum Narodowe oraz dużych bibliotek naukowych zrzeszonych w Digital Library Federation, po mniejsze, takie jak biblioteki publiczne w Hundungon i Denver. Ich doświadczenia ukazują wzorce, mogące ułatwić nam ocenę, kiedy technologia może sprostać oczekiwaniom polepszenia tradycyjnych usług bibliotecznych, a kiedy nie może, a także kiedy będzie to wprawdzie możliwe, ale nieopłacalne. Poniższy tekst będzie odnosić się do pytania, dlaczego biblioteka powinna zainwestować w zachowanie swoich tradycyjnych materiałów w cyfrowej postaci, innymi słowy: jakie są korzyści, a jakie przeciwwskazania dla przekształcania tradycyjnych analogowych materiałów na postać cyfrową.

CO TO JEST CYFROWA INFORMACJA?

  Jeszcze całkiem niedawno, wszystkie zapisane informacje były analogowe, co oznacza ciągły strumień informacji o różnej gęstości i typie. Analogowa informacja może obejmować wszystko, poczynając od ledwo zauważalnych tonów i odcieni światła w fotografiach Manhattanu wykonanych przez Berenice Abbotta o wczesnym poranku, aż po zarejestrowane na taśmie dźwiękowej zmiany w głośności, tonie i jego wysokości. Taśma ta, jeżeli odtworzy się ją na odpowiednim sprzęcie, może okazać się podziemnym nagraniem Boba Dylana lub będzie na niej głos Dylana Thomasa czytającego z walijskim akcentem Under Milk Wood (Pod Mlecznym Lasem). Gdy takie informacje zostaną wprowadzone do komputera, połamane na zera i jedynki i zapisane w kodzie binarnym, ich charakter ulega zmianie w całkiem precyzyjny sposób.

  Dane zakodowane cyfrowo nie przedstawiają nieskończenie odmiennej natury informacji tak wiernie, jak analogowe formy zapisu. Cyfrom na trwałe przypisano numeryczną wartość i w ten sposób osiąga się wielką precyzję, bez nieskończenie małych gradacji, nadających znaczenia w świecie analogowym. Na przykład, gdy fotografia jest przekształcana na postać cyfrową dla zaprezentowania jej na ekranie komputera, pierwotna ciągłość tonacji jest dzielona na punkty z przypisanymi do nich wartościami, odwzorowywanymi w stosunku do siatki na monitorze komputera. Układ punktów jest zapamiętywany i przywoływany z pamięci komputera na komendę.

  Te bity danych można ponownie łączyć, w celu manipulacji, i poddawać kompresji, w celu zapamiętania. Wielotomowe encyklopedie, zajmujące metry półek w analogowej postaci, mogą być przeszukiwane na wiele sposobów, i to nie tylko w porządku alfabetycznym, co umożliwia wszechstronne wyszukiwanie informacji. Nie byłoby to wyobrażalne, gdyby dysponowano tylko analogowym egzemplarzem na papierze lub mikrofilmie.

  Nie wykorzystywane aktualnie dane nie oczekują spokojnie na nasze zainteresowanie na półkach, jak książki czy rodzinna korespondencja albo fotografie, składowane w pudełku po butach, z tyłu pawlacza. Przypominają raczej stos płyt długogrających, czy ośmiomilimetrowy filmy z uroczystości rodzinnych w schowku w piwnicy. Chodzi o to, że cyfrowa informacja nie jest czytelna dla oka; jej prawidłowe odczytanie zależy od maszyny, która będzie w stanie odkodować informacje i przedstawić ciąg bitów, jako obraz na ekranie komputera. Bez tej maszyny i bez działania ze strony człowieka te dane nie przetrwają.

  Jedną z najważniejszych cech informacji cyfrowej stanowi fakt, że z natury nie jest na stałe utrwalona na nośniku, tak jak tekst drukowany na papierze. Cyfrowe teksty nie są ostateczne ani ukończone. Nie są też utrwalone pod względem treści i formy, gdyż można je łatwo zmienić nie pozostawiając śladów poprawek, z jednym wyjątkiem – wydruku. Elastyczność jest jedną z zasadniczych zalet informacji cyfrowej i tego właśnie oczekujemy od tekstu wpisanego do edytora tekstowego. Dzięki niej informacje cyfrowe łatwo się poprawia, przetwarza i posyła do druku w dowolnej różnorodności powtórzeń, bez wysiłku potrzebnego do przygotowania takiej kopii na maszynie do pisania. To właśnie dlatego projektanci przestrzeni lubią programy wspomagające projektowanie. Zebrawszy szybko pewną liczbę zmiennych określających odcień, kształt i umiejscowienie, można je po prostu zobaczyć, a nie wyobrażać sobie, jakie efekty dałyby różne wizualne opcje. Ponadto tworząc nieskończoną liczbę identycznych kopii z cyfrowego pliku nie zużywa się go w czasie kopiowania.

  Dla twórcy taka elastyczność może być idealna. Jednak bibliotekarzowi lub archiwiście usiłującemu zgromadzić tekst skończony i – w tym lub innym sensie – ostateczny przynosi znaczące skomplikowanie działań. Z racji tej elastyczności i podatności na zmiany zabezpieczenie takiego tekstu i jego przechowywanie w długim czasie stają się problemem trudnym do ogarnięcia rozumem. Którą wersję pliku lub jak wiele wersji należy zarchiwizować? Istnieją też ogromne techniczne przeszkody w zapewnieniu trwałości informacji cyfrowej.

DYSKRETYZACJA TO NIE ZABEZPIECZENIE, A PRZYNAJMNIEJ JESZCZE NIE TERAZ

  Wszelkie utrwalone informacje, od malunków na ścianach jaskiń i napisów na piasku, po glinianie tabliczki i nagrane na wideo przemówienia, mają wartość, nawet jeżeli jest ona tylko chwilowa. W przeciwnym razie, po co by je zapisano. Te, którym twórca lub przepisujący przyznał trwałą wartość, zapisano na mniej lub bardziej trwałych nośnikach i powierzono odpowiedniej opiece. Inne części zapisanej informacji, jak lista rzeczy do pralni, czy kwit potwierdzający zapłacenie podatku, służą chwilowym celom; potem pozwalamy im zniknąć. Biblioteki i archiwa utworzono po to, by gromadzić i udostępniać te informacje, które mają ponadczasową wartość. Biblioteki i archiwa mają za zadanie nie tylko strzec tych informacji, ale także powinny dostarczać świadectw takiego lub innego pochodzenia danej pracy, by móc określić jej autentyczność.

  Chociaż dyskretyzację określa się czasami, niezbyt ściśle, jako zabezpieczanie, jest jasne, że – przynajmniej dotychczas – zasoby cyfrowe najlepiej się sprawdzają jako ułatwienie przy udostępnianiu informacji. Natomiast tradycyjna biblioteczna funkcja zabezpieczająca jest właśnie ich najsłabszą stroną. Z żalem trzeba odnotować, że chociaż dyskretyzacja stanowi pewien typ przeformatowania, tak jak i mikrofilmowanie, nie należy jej przypisywać funkcji mikrofilmowania zabezpieczającego, a jest to często mylone. Często też bywa uznawana za lepszą od mikrofilmowania formę przeformatowania, choć nadal jest droższa. Cyfrowe odwzorowanie nie stanowi jednak zabezpieczenia. Wiele się zyskuje przez przekształcanie na postać cyfrową, lecz trwałość i autentyczność, na tym etapie rozwoju technologicznego, nie znajdują się po stronie korzyści.

  Powody słabości dyskretyzacji jako metody zabezpieczenia są złożone. Mikrofilm, inny dostępny nośnik przeformatowania zabezpieczającego, jeżeli zostanie wykonany na błonie powleczonej halogenkiem srebra i będzie przechowywany w stabilnym środowisku, powinien przetrwać kilka wieków. Aby go odczytać, potrzebne są jedynie światło i soczewka. W przeciwieństwie do mikrofilmu pliki komputerowe wymagają zarówno sprzętu (hardware), jak i oprogramowania (software). Te z kolei są często zaprojektowane dla specyficznych potrzeb jednego producenta i szybko stają się przestarzałe, a zawarte w nich informacje pozostają niedostępne. Odzyskanie danych zakodowanych w przestarzałych formatach plików i zgromadzonych na przestarzałych nośnikach (takich jak ośmiocalowe dyskietki) jest bardzo drogie i wymaga znacznych nakładów pracy, jeżeli w ogóle będzie możliwe. Często nośnik, na którym zapisano cyfrową informację, jest niestabilny sam w sobie. Taśma magnetyczna to jeden z przykładów popularnego nośnika cyfrowego, który wymaga specjalnej troski i właściwego postępowania. Wiadomo zaś, że jego degradacja w ciągu dziesięciolecia dochodzi do stopnia, poza którym już niemożliwe staje się odzyskanie informacji. Magnetyczne formy zapisu analogowego, takie jak taśmy wideo czy dźwiękowe, są równie kruche, delikatne i nie można na nich polegać, gdy chodzi o długotrwałe zabezpieczenie i przechowywanie. Są one fizycznie kruche. W istocie taśma magnetyczna nie różni się od kwaśnego papieru, powszechnie produkowanego w ciągu ostatnich 150 lat, ale czas jej życia jest dramatycznie krótki w porównaniu do czasu zachowania papieru lichej jakości.

  Jednak ważniejsza nawet niż trwałość nośnika jest konieczność stałego odświeżania danych i ich kodowania w plikach o czytelnych formatach. Być może prowadzone badania nad dwoma możliwymi sposobami zapewnienia trwałości danych: migracją i emulacją doprowadzą do rozwiązania tego problemu. Migracja oznacza przemieszczenie danych z jednej konfiguracji sprzętu i oprogramowania na inną, bardziej współczesną. Emulacja zaś to stworzenie oprogramowania, które będzie symulować przestarzałe formaty kodowania. Na razie jednak nie ma przetestowanej, niezawodnej techniki zapewniającej w długim czasie ciągły dostęp do cyfrowych danych o trwałej wartości. Wprawdzie w odniesieniu do informacji zapamiętanych w standardowych formatach, takich jak ASCII (American Standard Code for Information Interchange – znormalizowany ośmiobitowy kod znaku stosowany do przechowywania i przesyłania informacji w systemach przetwarzania oraz transmisji danych), z powodzeniem stosuje się migrację, np. w przypadku specyficznych dokumentów urzędowych. Tym niemniej, migracja z jednego oprogramowania na inne nie tworzy nowego pliku, który byłby identyczny z tym starym. I choć utrata danych niekoniecznie oznacza utratę intelektualnej zawartości, jednak sam plik ulega zmianie.

  Kolejny powód, dla którego cele związane z zabezpieczeniem są w pewien zasadniczy sposób zakwestionowane przez cyfrowe odwzorowanie stanowi to, że przy tej postaci jest dość trudno zapewnić autentyczność i wiarygodność jakiegokolwiek obrazu, bazy danych czy tekstu. W jaki sposób ktoś możne określić, czy cyfrowy plik nie został naruszony a jego zawartość pozostała niezmieniona lub nie została sfałszowana? Nie warto roztrząsać tych zagadnień z tradycyjnej perspektywy stosowanej wobec materiałów opublikowanych czy rękopiśmiennych. Nie ma bowiem oryginału, z którym dałoby się porównać podejrzewany plik. Kopie mogą być oszukańczo wiarygodne: nie uda się określić różnicy między oryginalnymi danymi wyjściowymi skanu Deklaracji Niepodległości i tymi, które uzyskano cztery miesiące później. W sprzeczności z podstawową zasadą autentyczności przyjmowaną w archiwistyce, można zmienić ciąg bitów w pliku nie pozostawiając żadnych śladów świadczących o dokonanej zmianie. Prowadzonych jest wiele prac badawczych poświęconych rozwikłaniu dylematu przedstawianego przez oszałamiającą wierność cyfrowego klonowania (kopiowania), włączając w to metody specjalnego oznaczania obrazów i stosowania cyfrowego datownika, lecz dotychczas brak zadowalających rozwiązań.

  Autentyczność może nie być istotna dla cyfrowego obrazu tak znanego dokumentu, jak wspomniana Deklaracja Niepodległości. Łatwo dostępny jest zarówno jej analogowy oryginał, jak i dobre fotografie. Stwarza to możliwość porównania. Lecz każdy, kto widział reklamę wykonaną techniką cyfrową, w której można zobaczyć Freda Astaire’a tańczącego z odkurzaczem, bez trudu zrozumie łatwość, z jaką nieprawdopodobne cyfrowe zjawiska mogą się urzeczywistnić. Spowodowano bowiem, iż mogliśmy je zobaczyć. Ostatecznie dowód znalazł się przed naszymi oczami, a nasze oczy nie mogły odkryć fałszu. I dopiero nasze rozumowanie poznawcze stwierdza fałsz, nie nasze oczy. Ten obraz słodyczy, sunącej w poprzek podłogi, wraz z funkcjonalnością, zaskakuje nas i rozbawia, gdyż wywołuje zakłopotanie.

&nbp Lecz co się stanie, gdy dotrzemy do strony internetowej biblioteki, szukając np. nieznanego obrazu, co do którego nie mamy prawie żadnych oczekiwań? Jedynym powodem, dla którego spodziewamy się, że ten obraz jest wiarygodnym odwzorowaniem oryginału, jest zaufanie do wiarygodności instytucji, która umieściła plik i nam go udostępniła. Przenosimy zaufanie, którego doświadczamy w czytelni bibliotecznej na naszą stację roboczą, gdziekolwiek ona się znajduje. Wchodzimy na stronę internetową New York Public Library z pełnym oczekiwaniem, że to biblioteka "gwarantuje" wiarygodność umieszczonego pliku. Lecz niezależne zweryfikowanie, pozwalające stwierdzić, że każdy obraz jest wierną reprodukcją oryginału, byłoby w istocie bardzo trudne dla badacza na Alasce oglądającego cyfrowe obrazy stron z Schomburga z tejże biblioteki.

  Oczywiście, problem autentyczności nie należy tylko do świata cyfrowego. W świecie takich nośników, jak druk i fotografia fałszerze i szalbierze osiągali godne podziwu sukcesy, częstokroć nie wykryte przez lata. Musieli wprawdzie być sprytniejsi i ciężej się napracować niż ich dzisiejsi, cyfrowi odpowiednicy. Tradycyjne metody ustalania autentyczności dokumentów, którymi posługiwali się bibliotekarze i archiwiści polegały przede wszystkim na praktycznej ocenie oznaczeń znajdujących się na samym fizycznym nośniku. Po tekstowej analizie, poszukującej oczywistych niezgodności w treści dokumentu, badacz analizuje fizyczny nośnik, książkę czy kartę rękopisu, aby stwierdzić, czy nie noszą one jakichkolwiek znaków modyfikacji czy fałszowania. Badacze mogą posługiwać się wieloma sposobami, by ustalić autentyczność dokumentu; od prostego zbadania filigranów do całej gamy skomplikowanych chemicznych, optycznych i fizycznych testów, które mogą potwierdzić wiek papieru, skład atramentu i odkryć fizyczne ślady zdrapań lub ponownego pisania na tekście już raz zapisanym. To prawda, że tylko nieliczni posługują się tak szczegółowym sposobem ustalania autentyczności w trakcie swoich badań. Dzieje się tak dlatego, ponieważ pułapki czyhające na korzystających z książek, rękopisów czy materiałów wizualnych są przez nas powszechnie znane i nie musimy poświęcać wiele uwagi na ich uwzględnianie. Powinniśmy się jednak wystrzegać, przenoszenia tego zaufania, które mamy do druku czy fotografii na cyfrowe zasoby, dopóki nie będziemy tak samo oswojeni z ich dowodowymi słabościami.

  Tak jak przy innych typach przeformatowania, cyfrowe skanowanie nie pozostaje bez znaczenia dla oryginalnego obiektu i jego stanu fizycznego. W zależności od zwyczajów danej biblioteki czy archiwum, po przeskanowaniu oryginał może być zachowany lub nie. W zakresie, w jakim czytelnik może się obyć bez brania do rąk oryginału, cyfrowy surogat zabezpieczający może służyć do ochrony oryginału przed wycieraniem i porwaniem. Jeżeli występuje obawa, że skanowanie może narazić oryginał na uszkodzenia, należy wybrać skanowanie z fotograficznej wersji oryginału.

  Stosując model przekształcenia hybrydowego (analogowo-cyfrowego), tj. stworzenia standardowego mikrofilmu zabezpieczającego i przeskanowania go dla celów dostępu lub na odwrót, rozpoczynając od wysokiej jakości skanu oryginału i stworzenia pochodzącego zeń komputerowego mikrofilmu (Computer-output on microfilm, COM – wyjście komputerowe na mikrofilm), można połączyć dwie korzyści: skanowanie dla celów udostępniania z mikrofilmowaniem zabezpieczającym. Trwają obecnie prace nad określeniem i sprecyzowaniem najlepszych praktycznych sposobów wdrożenia podejścia hybrydowego do przeformatowania, by mogły je zaadaptować biblioteki w całym kraju. Oczywiście COM, w przeciwieństwie do mikrofilmu naświetlonego z oryginału, to tylko nagranie cyfrowego obrazu na analogowy nośnik. Chociaż zostanie on osadzony na trwałym nośniku, niektórzy zwracają uwagę, że sam obraz, wygenerowany cyfrowo, traci pewne istotne informacje, a przynajmniej jest pozbawiony swojego zasadniczo analogowego charakteru. Wobec tego nie może być tak pożądany z punktu widzenia zabezpieczania, jak mikrofilm, który powstaje z oryginału.

  Choć tym, których bardziej interesuje łatwy dostęp, niż poziom autentyczności, może się to wydawać drugorzędne, istotne jest zrozumienie, że cyfrowa technologia radykalnie przekształca analogową informację. Występuje pewna strata informacji, kiedy analogowy obiekt staje się cyfrowym, tak samo jak wtedy, gdy wykonuje się analogową kopię z innej analogowej kopii. Nie ma prawie żadnej straty informacji, gdy przechodzi się ze starszej na nowszą generację kopii cyfrowej. W przeciwieństwie do mikrofilmu, który traci ok. 10% informacji z każdą kopią, cyfrowe obrazy nie ulegają degradacji podczas kopiowania. Gdy już jest więcej niż jedna kopia pliku cyfrowego, niemożliwe staje się określenie, który z nich był oryginałem i nie można nigdy powiedzieć o matrycy w taki sposób, jak o fotografii. W przypadku cyfrowych obrazów istnieje mniejsze prawdopodobieństwo, że zanikną w pamięci, jeżeli są odświeżane, cyfrowe obrazy nie ulegają degradacji przez kopiowanie, a pliki przez używanie, tak jak papier, film czy taśmy magnetyczne.

DYSKRETYZACJA TO DOSTĘP NIEOMAL NIEOGRANICZONY

  Cyfrowe pliki w nadzwyczajny sposób ułatwiają dostęp do informacji. Dzieje się tak bez względu na odległość. Umożliwiają też zobaczenie tego, co dotychczas pozostawało trudne do dostrzeżenia. Cyfrowe surogaty pozwalają zgromadzić materiały badawcze rozrzuconych po całym świecie; umożliwiają patrzącemu na połączenie różnych zbiorów i porównanie obiektów, które mogą być porównane ze sobą tylko dzięki przedstawieniu cyfrowemu. Łatwy dostęp do takich surogatów informacji stanowi dobrodziejstwo dla badaczy planujących dogodną strategię badawczą. Przynoszą one wystarczającą ilość informacji w stosunku do utrwalonych w oryginale, nawet jeżeli ich rozdzielczość jest stosunkowo mała. Wykorzystując miniaturowe obrazy, nie wymagające wysokiej rozdzielczości, można w takim stopniu poznać źródło, by wiedzieć, czy konieczne jest w danym przypadku dotarcie do oryginału. Często wystarczają już te zastępcze informacje, zawierające wszystkie potrzebne dane. Obraz mapy Wirginii Johna Smitha z 1612 r. może dać uczniowi wystarczające informacje, by ocenić jak daleko dotarł Smith w czasie kolejnych wypraw w głąb lądu. Czarne krzyżyki, które nanosił na mapie, by oznaczyć te punkty, są wyraźnie widoczne nawet na obrazach o małej rozdzielczości.

  Decydując o wyborze parametrów dla zdjęć cyfrowych należy brać pod uwagę naturę materiałów źródłowych (kolorowe, czarno-białe lub skala szarości) i dalsze ich wykorzystanie (kto będzie je analizował i do jakich celów). Jakość i użyteczność jakiegokolwiek obrazu zależy od technologii wykonywania zdjęć i sposobów ich prezentacji. Przydatność takiego obrazu, nawet tylko do celów informacyjnych, może zostać poważnie ograniczona przez monitor o małej rozdzielczości, na którym zostanie wyświetlony. Trwają już prace nad kontrolą jakości i różnorodności monitorów komputerowych, lecz jak dotąd brak kontroli nad mechanizmami wyświetlania, a to stanowi jedno z najsłabszych ogniw w łańcuchu cyfrowego przekazu.
Przetwarzanie obrazów – ich opracowanie po dokonaniu cyfrowego ujęcia – znacznie zwiększa zakres porównań badawczych i pozwala na wydobycie szczegółów, których oko ludzkie nie może dostrzec bez pomocy techniki. Poprawiać można ostrość szczegółów i kontrasty kolorystyczne oraz zmieniać rozmiary. Dzięki takiemu przetwarzaniu bardzo wyblakły dokument może stać się znacznie łatwiej czytelny, zatarty można oczyścić, zaś delikatne ślady ołówka będą wyraźniej czytelne. Plan Washingtonu (District of Columbia), przygotowany przez Pierre’a-Charlesa L’Enfanta dla Jerzego Waszyngtona w 1791 r. jest tak bardzo wyblakły, odbarwiony i kruchy, że przypomina frytkę ziemniaczaną. Nie był wykorzystywany przez badaczy, a dla nieuzbrojonego oka zawierał mało szczegółowych informacji. Plan ten zeskanowano wiele lat temu. Teraz można go wyświetlać w sposób pozwalający dostrzec wszystkie subtelne kontury planu architektonicznego oraz odczytać liczne uwagi zapisane na nim przez Tomasza Jeffersona. Możemy teraz, jak archeolog, dzięki naszym cyfrowym kilofom i szczotkom, odkrywać ważne świadectwa historyczne, zmieniające naszą dotychczasową wiedzę o planowaniu narodowej stolicy.

  Cyfrowa technologia pozwala na udostępnianie pierwszorzędnych materiałów poglądowych do nauki dla studentów, którzy inaczej nie mieliby do nich dostępu. Z punktu widzenia szkół najcenniejszym typem materiałów do przekształcania na postać cyfrową są kolekcje specjalne instytutów badawczych: rzadkie książki, rękopisy, źródła muzyczne i koncerty, fotografie i materiały graficzne oraz filmy. Często są to przedmioty niezwykle rzadkie, delikatne i faktycznie unikatowe, a dostęp do nich jest poważnie ograniczony i utrudniony. Dyskretyzowanie takich materiałów źródłowych stwarza nauczycielom, niezależnie od szczebla nauczania, szansę pokazywania uczniom surowca historii. Bogactwo kolekcji specjalnych jako materiałów badawczych polega także na tym, że często pozwalają ukazać fakt lub zjawisko w wielu różnych formatach. Dzięki cyfrowym obrazom: dagerotypów kandydatów, plakatów z kampanii wyborczej (co wówczas były nowością), karykatur ze współczesnych gazet, nagonek na abolicjonistów i ogłoszeń o aukcji niewolników oraz rękopiśmiennego brudnopisu inauguracyjnego przemówienia prezydenta Lincolna, odzwierciedlającego wiele różnych stadiów jego pisania i układania, można by prowadzić badania nad wyborami prezydenckimi z 1860 r. Taka analiza byłaby dostępna dzięki dobrze przygotowanym planom przekształcania na postać cyfrową materiałów z różnych zbiorów, pozostających zazwyczaj poza zasięgiem uczniów.

  Wprawdzie np. wiemy, że dzienna liczba odwiedzin stron internetowych American Memory Biblioteki Kongresu jest większa niż liczba czytelników odwiedzających czytelnię każdego dnia, lecz za mało jest danych na temat, jak ten rodzaj obrazów cyfrowych jest używany, i do jakich celów. Niektóre duże biblioteki już próbują gromadzić i analizować statystyki udostępnień, ale jest to żmudne zadanie i wcale nie takie proste. Koniecznie należy przeprowadzić więcej badań potrzeb użytkowników, zanim będzie można z pewnością stwierdzić to, co wydaje się oczywiste: że dołożenie dyskretyzowanych zbiorów specjalnych do masy już dostępnych w internecie informacji leży w publicznym interesie i wzbogaca nauczanie. Ważne jest też zapewnienie, że biblioteki współpracują w dążeniach do przekształcania materiałów na postać cyfrową i tworzą zbiór wzajemnie się uzupełniających źródeł badawczych. Będzie to spełnieniem obietnicy budowania skoordynowanej cyfrowej kolekcji. Jednak dziś brak centralnego źródła informacji o tym, co już zostało przekształcone na postać cyfrową i jak się z tym postępuje; takie centrum istnieje w odniesieniu do mikrofilmów zabezpieczających książki.

  Niektóre ujemne cechy technologii cyfrowej, zarówno z punktu widzenia dostępu, jak i zabezpieczenia, wywodzą się z tajemniczej zdolności technologii do przedstawiania oryginału w sposób na pozór autentyczny. Pracując z cyfrowymi surogatami może zniekształcić doświadczenie badawcze przez przyjmowanie materiałów badawczych niejako bez kontekstu czytelni. Natura komputerowego wyświetlania pozwala tylko na oglądanie seryjne, w istocie odmienne, np. od rozkładanie fotografii zgodnie z ich pierwotnymi rozmiarami na płaskiej powierzchni i równoczesnego ich oglądania lub układania w różne grupy. Każdy obiekt, każda strona jest widziana za pośrednictwem ekranu, który automatycznie spłaszcza obraz i pozbawia go tła. A ponadto cyfrowy obraz, niezależnie rozdzielczości i czułości monitora, jest zawsze przefiltrowywany przez ekran komputera o stosunkowo niskiej gęstości informacji. W ten sposób zmniejszeniu ulega duża gęstość informacji zawarta z natury w obiektach analogowych. Jej redukcja może wywrzeć decydujący wpływ przy ocenie pewnych widocznych świadectw.

  Cyfrowe "surowe materiały" dostępne w internecie nie są w istocie tak surowe, jakimi mogłyby się wydawać. Wiele z obiektów dostępnych na stronach internetowych takich instytucji, jak Archiwum Narodowe, Biblioteka Kongresu czy Nowojorska Biblioteka Publiczna, pochodzi ze zbiorów specjalnych, które są większe, często skatalogowane tylko na poziomie kolekcji i niepublikowane, ze skrótowymi opisami, które mogą pomóc badaczom. Aby przekształcić je na postać cyfrową, kustosze, doskonale znający te materiały, dokonali ich analizy i wyboru. Zakres fizycznych przygotowań i działań intelektualnych przy każdym projekcie cyfrowym jest bardzo rozległy. Samo skanowanie jest bardzo drogim procesem, ale większość kosztów bywa ponoszona zanim obiekt zetknie się ze skanerem. Część kosztów pochłania fizyczne przygotowanie badań i opis obiektu. Kolekcja dagerotypów, pozornie w całkiem dobrym stanie fizycznym, choć niezbyt dobrze skatalogowana, zanim zostanie zeskanowana, może wymagać rozległej kontroli i działań konserwatorskich. Nakład pracy potrzebny do identyfikacji twarzy, które pozostawały anonimowe przez dziesięciolecia, może poprzedzić katalogowanie i opis obrazów przekształcanych na postać cyfrową. Jeśli te poszukiwania można uznać za uboczne, a nawet dowolne, znacznie częściej niż się to uwzględnia należy ponieść koszty edytorskie. Zbiory umieszczone na stronie internetowej stanowią w rzeczywistości publikacje, zwłaszcza towarzyszące im opisy, mające ułatwić ich zrozumienie w kontekście internetu.

  Użytkownik strony internetowej biblioteki potrzebuje takiej informacji. Jest przyzwyczajony, że w bibliotece, w razie trudności, zwraca się o pomoc do bibliotekarza. Stąd częste wśród użytkowników oczekiwanie zapewnienia takiej samej pomocy na stronie internetowej. On oczekuje od cyfrowych obrazów nawet wyższego poziomu funkcjonalności, niż od materiałów bibliotecznych, częściowo zapewne dlatego, że w sieci nie ma dostępnego bibliotekarza – specjalisty.

  Pomimo wysokich nakładów finansowych, wiele instytucji, aby się przekonać, co technologia może dla nich zrobić, podejmuje ambitne projekty przekształcania zbiorów na postać cyfrową. Inwestują znaczne kwoty pieniędzy w projekty mające ułatwić dostęp do zbiorów, wierząc zarazem zbyt często, że za jednym zamachem osiągną też ich zabezpieczenie. Często trudno przewidzieć oddziaływanie takiego projektu na instytucję, jej sposób działania, jej dotychczasowych odbiorców i zasadnicze funkcje. Wyzwanie, jakim jest wyselekcjonowanie do skanowania pewnej części z większej kolekcji, stanowi dla niektórych nowe zadanie. Stawia się pytania o podstawowe zasady rozwoju kolekcji i polityki udostępniania. Wiele bibliotek i archiwów ma zbiory, których wartość tkwi w ich wszechstronności oraz w tym, że w zasadniczej części są to materiały niepublikowane. Te zbiory mogą jednak zawierać materiały drażliwe, związane z wydarzeniami historycznymi lub niegdyś popularnymi postawami, które dziś mogś się wydawać nieprzyzwoite. Takie materiały należy osadzić w szerszym kontekście historycznym. Tło historyczne jest właśnie tym, co zawierają rozległe, wszechstronne zbiory.

  Ale jak postępować z tego typu materiałami w środowisku sieciowym? Udostępnienie informacji przez internet usuwa te wszystkie bariery, które przyjmowaliśmy jako naturalne w fizycznym zbiorze. Nie trzeba już iść do biblioteki ani udowadniać poważnych badawczych intencji, aby dotrzeć do złożonych, niepokojących i pozbawionych interpretacji materiałów. Gdy ktoś już podjął trudną decyzję opublikowania materiałów, do których można łatwo dotrzeć w czytelni, ale które są zbyt nośne, by upublicznić je w internecie, jakie to ma znaczenie dla integralności zbioru badawczego? Stosując te same technologie, jakie wykorzystuje bussiness przy udostępnianiu stron za opłatą, można zbudować elektroniczne bariery dostępu do całości lub części strony. Budując takie bariery dodajemy kolejne utrudnienie w administrowaniu stroną, lecz biblioteka czy archiwum mogą nie być na to przygotowane, nawet jeżeli istnieje odpowiednia technologia. Korzystniejsze jest traktowanie dyskretyzacji jako specyficznej formy publikacji, a nie po prostu kolejnej formy udostępniania materiałów badaczom. Dyskusyjne problemy wyboru materiałów z zamiarem przekształcenia ich na postać cyfrową znajdują lepsze punkty odniesienia w tradycji wydawniczej. Stwarza ona dogodne intelektualne i etyczne podstawy do selekcji złożonego materiału dokonanej z wyobraźnią.

  Z powodu ograniczeń wynikających z praw autorskich niejedna kolekcja o najwyższej wartości badawczej czy edukacyjnej nie będzie przekształcona i udostępniona w internecie. Z tego właśnie powodu strony internetowe bibliotek zawierają nieproporcjonalnie dużo materiałów ogólnodostępnych w stosunku do zbiorów prywatnych, co zniekształca charakter bazy źródłowej dostępnej dla badaczy ograniczających się jedynie do sieci. Część młodych studentów sądzi, że skoro czegoś nie ma w sieci ani w katalogu on-line, to oznacza, że takie materiały źródłowe w ogóle nie istniały. W ten sposób znaczna większość źródeł informacji pozostaje na uboczu, zwłaszcza niepublicznych. Jest to niezgodne z tym, co zamyślali Ustawodawcy, postanawiając odnośnie do praw autorskich w artykule I. Sekcji, 8 ustęp, 8 Konstytucji, że mają one "promować postęp nauki i sztuk użytecznych".

  Ta nieproporcjonalna reprezentacja utworów w internecie będzie trwać jeszcze przez jakiś czas. Komplikacje towarzyszące filmom i nagraniom dźwiękowym (muzyce) oznaczają, jak na ironię, że ostatnie w kolejności będą dostępne w najbardziej dynamicznym źródle informacji, jakim jest sieć. Dopóki nie zostanie zastosowane optyczne rozpoznawanie tekstu (Optical Charecter Recognition – OCR), technologia umożliwiająca przeszukiwanie tekstowe zeskanowanego tekstu, działająca na tekstach z alfabetem łacińskim i innym, zasoby z całego świata w językach miejscowych nie znajdą właściwego sobie miejsca w kolejce do skanowania.

CO ZYSKUJEMY, A CO TRACIMY?

 

Rozważając projekt przekształcania na postać cyfrową instytucja powinna postawić sobie pytanie, co można osiągnąć przez dyskretyzację i czy uzyskana wartość dodana uzasadni poniesione koszty. Wiele bibliotek rozpoczęło trudne zadanie określenia kryteriów doboru przy dyskretyzacji i ogłasza je w internecie. Na przykład Columbia University, jako jedna z pierwszych uczelni, przygotował wytyczne zawierające kryteria dotyczące wartości dodanej [tekst był opublikowany pod adresem: http://www.columbia.edu/cu/libraries/digital/criteria.htm]. Określono tam wartość dodaną cyfrowych obrazów jako:

  • ulepszoną kontrolę intelektualną uzyskiwaną przez: stworzenie nowych pomocy wyszukiwawczych, odesłań do opisów bibliograficznych, opracowanie indeksów i innych narzędzi;

  • zwiększone i wzbogacone wykorzystanie uzyskiwane przez: możliwość szerokiego wyszukiwania, manipulowania obrazami i tekstem oraz analizowania różnych obrazów w nowym kontekście;

  • zachęcenie do nowego zastosowania w szkołach uzyskiwane przez: szerokie upowszechnianie zasobów wzbogaconych o dodanie do nich lokalnych i unikatowych kolekcji;

  • udoskonalone użycie uzyskiwane przez: poprawę jakości obrazu, np. poprawę czytelności wyblakłych lub poplamionych dokumentów;

  • tworzenie "wirtualnych zbiorów" uzyskiwane przez: elastyczne integrowanie i syntezy różnorodnych form lub pokrewnych materiałów rozrzuconych w wielu miejscach.

 

Koszty dyskretyzacji, tworzenia i podtrzymywania ścieżki migracji dla plików zabezpieczających są nadal bardzo wysokie. Korzyści z szerokiego udostępnienia pomijanych dotąd zbiorów powinny być rozpatrywane w połączeniu z innymi czynnikami, takimi jak zgodność z innymi cyfrowymi zasobami oraz wewnętrzna wartość intelektualna kolekcji. Jak to stwierdziło Stowarzyszenie Archiwistów Amerykańskich (w "The preservation of digited reproductions", z 9 lipca 1997 r., dostępne pod adresem: http://www.archivists.org/statements/digitize.asp): "samo zwiększenie potencjału uzyskiwane przez poszerzony dostęp do kolekcji przekształconych na postać cyfrową nie doda wartości tym zbiorom, które są prawie nie wykorzystywane. Tylko w odniesieniu do naprawdę rzadkich, wyjątkowych przypadków kolekcja cyfrowych plików może usprawiedliwić koszty odpowiedniej strategii migracji bez przynoszenia korzyści w szerszym intelektualnym kontekście pokrewnych plików cyfrowych zapamiętanych wszędzie i ich wspólnego użytku dla badań i studiów."

  Jak to wyraził Donald Waters z Digital Library Federation, "obietnica cyfrowej technologii to dla bibliotek: rozszerzenie zasięgu badań i nauki, poprawa jakości nauczania i przemodelowanie wymiany informacji między uczonymi". Nie jest to przesadne roszczenie wobec technologii, lecz raczej deklaracja ambicji wspólnych wielu ludziom, którzy ową technologię tworzą, rozwijają i nią zarządzają. Klucz do spełnienia tej obietnicy leży w społecznościach akademickich, naukowych oraz w publicznej polityce odpowiedzialnej za zastosowanie cyfrowej technologii do tych celów. Przekształcanie na postać cyfrową zbiorów biblioteki ma swoją stawkę w tych ambicjach, zwłaszcza w tym zakresie, gdy może ona poszerzyć dostęp do cennych, choć unikatowych zasobów. Lecz koszt dyskretyzacji i instytucjonalnego zaangażowania się w ciągłe podtrzymywanie przekształconych materiałów i udostępnianie ich w długim czasie jest wysoki, choć nie wiemy, ile dokładnie wynosi. Biblioteki powinny także zapewnić długotrwałość informacji wytworzonej w postaci cyfrowej i nie istniejącej w żadnej innej formie. Aby ocenić, czy inwestycja jest warta zachodu, potrzeba więcej informacji na temat kosztów takich cyfrowych projektów, a także stwierdzenie, kto i jak korzysta z przekształconych na postać cyfrową materiałów. Tymczasem biblioteki pozostają nadal odpowiedzialnymi kustoszami swoich analogowych zasobów: druków, obrazów i nagrań dźwiękowych; są to ich podstawowe aktywa będące dziedzictwem wielu pokoleń. To zadanie wymaga stałego wykorzystania sprawdzonych i wiarygodnych technik zabezpieczania, takich jak mikrofilmowanie, pozwalających zapewnić długowieczność narażonej na niebezpieczeństwo informacji.

  Świat analogowy jest odmienny od cyfrowego, a każdy z nich ma swoje naturalne zalety i ograniczenia. Świat cyfrowy nie może zastąpić analogowego. Przekształcanie wszystkiego na postać cyfrową to dążenie niewłaściwe, nawet jeżeli bylibyśmy w stanie tego dokonać. Prawdziwym wyzwaniem jest doprowadzenie do tego, aby analogowe materiały stały się bardziej dostępne dzięki ogromnym możliwościom stwarzanym przez cyfrową technologię. I to nie tylko dzięki dyskretyzacji, lecz także przez dostarczenie cyfrowych pomocy wyszukiwawczych i połączeń z bazami danych narzędzi wyszukiwawczych. Cyfrowa technologia może w istocie wyposażyć nas w cenny instrument polepszenia nauczania i szerszego udostępnienia bogactwa zasobów informacyjnych wszystkim poszukującym. Tak się stanie, gdy wykorzystamy ją jako dodatek do dobrze sprawdzonych narzędzi, a nie będziemy zastępować nią wszystkiego, co wymyślono i sprawdzono przez pokolenia przed nami i nam w zaufaniu powierzono.

[tłum. HWs]


Przypisy:

  1. Tytuł Why digitize?, (wyd. przez: Council on Library and Information Resource, Commission on Preservation and Access, Digital Libraries, Economic of Information Leadership, Washington 1999) należałoby właściwie przetłumaczyć jako "Dlaczego dyskretyzować?", por. hasło "digitize" np. w Dużym Słowniku Informatycznym angielsko-polskim, J. Szaniawskiego, Warszawa 1997, s. 103 – digitize v dyskretyzować (przekształcać na postać cyfrową) lub w Słowniku naukowo-technicznym angielsko – polskim, red. S. Czerni, M. Skrzyńska, Warszawa 1986, s. 221 – digitize v przekształcać (wartości analogowe wielkości fizycznej) na postać numeryczną, dyskretyzować, cyfryzować; dalej będę używał terminu "dyskretyzować" zamiennie z "przekształcać na postać cyfrową". Spośród raportów zajmujących się tą problematyką do tłumaczenia wybrałem ten, jako nowszy i krótszy, choć warto zwrócić uwagę na niemiecki raport opracowany przez obecnego prezydenta Bundesarchives prof. dr Hartmuta Webera i Marianne Dörr, Digitisation as a Method of Preservation?, Washington 1997, European Commission on Preservation and Access, Amsterdam, Commission on Preservation and Access. Tezy obu tych raportów są zbieżne. Problem dyskretyzacji czyli przekształcania na postać cyfrową jest dyskusyjny; w tym kontekście warto zwrócić uwagę na pozycję Digitale Archive und Biblitheken, wyd. H. Weber, G. Maier, Kohlhammer 2000, z której pochodzi poniższe zastawienie.

    Maksymalny czas naświetlenia przez sztuczne oświetlenie z filtrem UV 1000 W

    Fotografowanie Mikrofilmowanie Digitalizacja
    ca. 5 sek. ca. 0,5 do 10 sek. ca. 30 sek.



    Cytat za: G. Banik, Risiken bei der Verfilmung und Digitalisierung von Archiv- und Bibliotheksgut aus konservatorischer Seite, [w:] Digitale Archive und Biblitheken, s. 317. Przyp. tłum.