woensdag 4 november 2009

Digitale Tipp-Ex


Vroeger, zeker op de middelbare school, maar als ik het me goed herinner ook al op de lagere school (ja, zo oud ben ik al), gebruikten verschillende kinderen uit mijn klas Tipp-Ex om schrijffouten weg te lakken. Vreselijk: het stonk en het maakte kabaal, want je moest natuurlijk eerst heel goed schudden. Toen ik het zelf eens probeerde, bleek ook nog dat je er niets aan hebt als je met een vulpen schrijft, zoals ik van kinds af aan doe.

Ik moest hier aan denken toen ik een stukje van L’Archivista las over wat ze in Amerika ‘redaction’ noemen: het weglakken van vertrouwelijke informatie uit archiefstukken voordat deze gepubliceerd worden.
Bij papieren documenten is dat redelijk simpel: je maakt een kopie van het document, Tipp-ext alle problematische passages weg (je kunt hier natuurlijk ook een dikke zwarte alcohol-stift voor gebruiken) en maakt een nieuwe kopie van het document, die je ter inzage geeft. Dat dit bij digitale documenten iets ingewikkelder ligt, hebben we in Nederland pas nog gezien bij het voortijdig uitlekken van de Miljoenennota.
Een nog mooier voorbeeld is de actie van de Belastingdienst twee jaar geleden geleden, die toen in het kader van de WOB het Draaiboek Project Bank Zonder Naam op zijn website publiceerde. Allerlei vertrouwelijke informatie was met zwarte balken 'weggelakt', maar bleek redelijk simpel leesbaar te maken.

L'Archivista schrijft daar over:
There are also several really bad PDF redaction techniques. Never, ever use Adobe Acrobat's Draw or Annotate tool to place black, white, etc. boxes over information you wish to redact. Another spectacularly bad idea: "redacting" a word processing document by changing the font color to white or using a shading or highlighting feature to obscure the text and then converting the document to PDF format.

Hoe het wel moet, beschrijft ze kort in haar blog en uitgebreider in een presentatie tijdens de MARAC-conferentie een paar dagen geleden. (Ik heb die presentatie helaas nog niet gevonden.)
Er zijn verschillende hulpmiddelen die het mogelijk maken om pdf-bestanden te 'schonen', waaronder de standaard-functionaliteiten van Adobe Acrobat 8 en 9. Er zijn ook aparte applicaties die dit soort dingen doen, zoals Redax en Redact-It.

Haar belangrijkste, maar ook meest problematische advies, is dat het cruciaal is "to keep abreast of the relevant legal and digital forensics literature: people are trying to figure out how to crack these tools and techniques and recover redacted information, and one of them may eventually succeed."

Hier speelt het probleem van 'duurzame toegankelijkheid' eigenlijk andersom dan we gewend zijn. Een geschoond, papieren document zal altijd schoon blijven. Mits er goed gelakt is, zijn er simpelweg geen technieken om op basis van enkel het gekopieerde document de weggelakte informatie te reconstrueren. Maar bij een digitaal geschoond bestand, is het heel goed denkbaar dat de techniek die gebruikt is om te schonen na bijvoorbeeld een jaar al zodanig achterhaald is, dat de verwijderde passages eenvoudig terug te halen zijn. En als je deze bestanden via je website beschikbaar hebt gesteld, kun je er zeker van zijn dat er op diverse plekken nog kopieën opgeslagen zijn. Met alle mogelijke gevolgen van dien.

Er zijn twee redenen waarom deze problematiek relevant kan zijn voor digitale depots.
De eerste is dat er op dit moment de tendens is om digitale archiefbescheiden maar zo snel mogelijk in het digitaal depot op te nemen. Bij het Nationaal Archief start binnenkort een pilot waarbij een ministerie alle afgehandelde dossiers direct in het depot van het Nationaal Archief onderbrengt. Aangezien deze bestanden nog onder het regime van de WOB vallen, moet bij een verzoek om toegang bekeken worden of alle informatie wel openbaar is. Dat kan dus leiden tot het weglakken van bepaalde passages.
De tweede is de trend dat steeds meer (ook oudere) archiefbescheiden via internet beschikbaar gesteld worden, vooral bouwvergunningen zijn populaire dossiers. Het CBP heeft in zijn richtsnoer opgenomen dat ook in deze gevallen voorkomen moet worden dat gegevens over natuurlijke personen vrij beschikbaar komen. Ook hierbij kan dus sprake zijn van het 'schonen' van de gepubliceerde archiefbescheiden.

Worden met dit schonen archiefbescheiden gecorrumpeerd?
Ik denk het niet, op voorwaarde dat het schonen enkel gebeurd in het Beschikbaar Digitaal Archiefstuk (DIP in OAIS-termen) en niet in het Opgenomen Digitaal Archiefstuk (AIP in OAIS-termen). Het betekent natuurlijk wel dat een dienst bij het 'samenstellen' van een BDA hier rekening mee moet houden en moet documenteren dat er passages 'ontoegankelijk' gemaakt zijn.

Afbeelding: Oxna

donderdag 15 oktober 2009

Digitale duurzaamheid?


De afgelopen jaren heb ik er wel wat over gelezen, maar ik heb er eigenlijk nooit erg lang bij stilgestaan: de invloed van digitalisering op ons milieu. Vanochtend kwamen drie dingen samen:
  1. Vandaag is het Blog Action Day en dit jaar is het thema Climate Change
  2. In de NRC van gisteren las ik over een onderzoek van Tebodin naar het energiegebruik van de Nederlandse ICT-sector
  3. Afgelopen weken las ik via de weblog van Alan Ake over 'very  long term preservation'.
Uit het onderzoek van Tebodin bleek dat het aantal datacenters in Nederland in twee jaar met een kwart groeide (van 80 naar 100), maar dat het energieverbruik in diezelfde tijd met meer dan 50% steeg. Daarmee vertegenwoordigt de ICT-sector circa 2 procent van het nationale energieverbruik. (Volgens Tebodin is dit dan evenveel als de luchtvaartsector, maar ik vraag me af of bij de luchtvaartsector dan ook het energieverbruik van hun ICT-voorzieningen meegerekend is...) Bij datacentra gaat de meeste energie trouwens op aan de koeling en blijkbaar lukt het nog niet om met efficiënter koelen het stroomverbruik gelijk te houden aan de groei.

In The monster footprint of digital technology schrijft Kris de Decker dat het te beperkt is om alleen naar het energieverbruik te kijken. De Decker strooit zo gul met Watts, MegaJoules per kilo en MegaWattUren, dat het me een beetje duizelt. Maar zijn centrale punt is volgens mij dat de productie van microchips, processoren en nanomateriaal zo energie-intensief is, dat de energie die voor het gewoon gebruik van laptops en gadgets nodig is, daarbij bijna in het niet valt.

"The most up-to-date life cycle analysis of a computer dates from 2004 and concerns a machine from 1990. It concluded that while the ratio of fossil fuel use to product weight is 2 to 1 for most manufactured products (you need 2 kilograms of fuel for 1 kilogram of product), the ratio is 12 to 1 for a computer (you need 12 kilograms of fuel for 1 kilogram of computer). Considering an average life expectancy of 3 years, this means that the total energy use of a computer is dominated by production (83% or 7,329 megajoule) as opposed to operation (17%). Similar figures were obtained for mobile phones."



En Richard Heinberg brengt het allemaal bij elkaar:

"Ultimately the entire project of digitized cultural preservation depends on one thing: electricity. As soon as the power goes off, access to the Internet goes down. CDs and DVDs become meaningless plastic disks; e-books become inscrutable and useless; digital archives become as illegible as cuneiform tablets—or more so. Altogether, digitization represents a huge bet on society’s ability to keep the lights on forever."

Hij schetst scenario's waarbij tussen nu en 15 tot 20 jaar regelmatig 'black-outs' plaatsvinden en we dus voor kortere of langere tijd zonder stroom moeten leven. Naar aanleiding daarvan vindt Heinberg dat het de plicht van een bibliothecaris is, om ervoor te zorgen dat "essential cultural knowledge" analoog bewaard blijft. Het is me niet helemaal duidelijk of hij dan doelt op cultuuruitingen heeft, of op meer praktische antwoorden die nodig zijn om zonder stroom te kunnen overleven (Hoe zuiver ik water? Welke planten kun je eten?)

Maar uiteindelijk is de paradox dus dat het voortbestaan van datgene wat we de afgelopen jaren digitaal gemaakt hebben en de komende jaren zullen maken, afhankelijk is van de continue groei van de infrastructuur voor energieproductie en -consumptie. En juist die groei eist een steeds grotere, misschien wel catastrofale tol van milieu en maatschappij.

Misschien zou dit ook een aspect moeten zijn bij het maken en beheren van een Duurzaam Digitaal Depot (al bevat ED3 hier natuurlijk geen eisen  over).

Het plaatje is van Grace Grothaus.

maandag 28 september 2009

Officieel verslag "Toekomst voor ons digitaal geheugen" beschikbaar

Op de website van de NCDD is vandaag het officiële verslag van de werkconferentie van 18 september 2009 verschenen. Daarnaast zijn ook de presentaties van Abigail Potter en Inge Angevaare integraal opgenomen.

maandag 21 september 2009

Toekomst voor ons digitaal geheugen

"De Nederlandse overheid zorgt voor zijn digitale bestanden, zoals de burger thuis zorgt voor zijn digitale foto's."

Dat zou Martin Berendse de kabinetsformateur vertellen als hij naar "Beesterzwaag" mocht om het probleem van duurzame digitale toegankelijkheid uit te leggen.

Deze toch wel schokkende omschrijving was een van de uitkomsten van de werkconferentie "Toekomst voor ons digitaal geheugen: duurzame toegang tot informatie in Nederland" die de NCDD op 18 september in de KB organiseerde. Aanleiding voor de conferentie was de interrimrapportage van de Nationale Verkenning Duurzame Toegankelijkheid, die de NCDD op 1 juli 2009 publiceerde.  In het rapport worden op de beleidsterreinen Overheid, Cultuur en Wetenschap verschillende knelpunten voor de duurzame toegankelijkheid gezien. Hieronder een mindmap van de samenvatting die Inge Angevaare van het rapport gaf:



In twee Break out-sessies moesten vertegenwoordigers van de drie beleidsterreinen vast stellen of ze het eens waren met de in de rapportage geconstateerde knelpunten en welke oplossingen ze hiervoor zagen. Hieronder een weergave van de uitkomsten van alle sessies:



Ik heb (uiteraard) deelgenomen aan de sessie voor de Overheid. De eerste, waarin we de problemen moesten benoemen was heel interessant. Al verzuchtte een van de deelnemers terecht: "De eerste publicaties over digitale duurzaamheid dateren uit 1988 en we zijn nog geen stap verder!" Een van de conslusies was dan ook dat 'de sector' de afgelopen jaren niet verder gekomen is dan 'het rondspelen van de bal' en het uitdenken van 100% perfecte oplossingen.

In de sessie na de lunch moesten we oplossingen aandragen voor de geconstateerde problemen. Eerlijk gezegd ben ik er nog niet in geslaagd om de oplossingen die 'we' bedacht hebben te laten aansluiten op de geconstateerde problemen. We begonnen met 'grote' problemen als De democratie is in gevaar  en uiteindelijk zijn de oplossingen een aanwijzing van hogerhand om de duurzaamheid te regelen en een 'financiële impuls'.
Het gebeurde voor mijn ogen, maar ik weet nog altijd niet wat er gebeurd is.

In de paneldiscussie daarna ging het maar heel even over de knelpunten in het rapport, iedere sector herkende en erkende deze. Het ging meer over het zijn en wezen van de NCDD. De 'wetenschappers' verwoordden het probleem helder: "De NCDD moet blijven bestaan, maar we weten niet in welke vorm en met welke taken." Toen de leden van het bestuur hiernaar gevraagd werd, was het antwoord een soort jij-bak "Wat verwacht u van ons? Wat willen jullie dat wij doen?" Dat leverde wat ongemakkelijk gewiebel op, totdat Jeroen van Os (gemeentearchivaris van Utrecht) opstond en aangaf dat hij vooral een agenda verwacht: dit gaat de NCDD de komende jaren wel doen en dit zal de NCDD niet doen.
Een andere vraag (van Maarten Schenk, namens BRAIN in dit geval) aan de leden van het bestuur was: "Wat verwachten jullie dat wij als instellingen doen? Moeten we allemaal lid worden?" Het ietwat gemakkelijke antwoord hierop was dat iedereen lid moest worden, want dan was er meer geld beschikbaar om de goede dingen te doen.

Later begreep ik uit de weblog van Inge Angevaare dat het bestuur hard nadenkt over de toekomstige strategie, maar dat de tijd nog niet rijp is om daar al iets over te zeggen.
"Tja", zou Martin Bril waarschijnlijk zeggen.

Laat ik dan proberen te schetsen hoe ik denk dat de NCDD moet gaan functioneren.
De keynote-speech van de conferentie werd gegeven door Abigail Potter van NDIIPP. Deze organisatie is min of meer de voorbeeld-organisatie voor de NCDD. Hier een mindmap van haar presentatie, die erg snel werd uitgesproken en vergezeld ging van erg volle sheets, dus het best mogelijk dat ik dingen gemist heb.



Twee dingen heb ik wel onthouden:
  1. NDIIP is neutraal. Hoewel opgericht door de Library of Congress, staat de organisatie daar eigenlijk los van. Hierdoor is ze voor alle partijen en belanghebbenden in Amerika geaccepteerd als partner en coördinator.
  2. NDIIP is gefocust op concrete samenwerkingsprojecten en speelt daarin vooral een coördinerende en faciliterende rol.
Dit zijn twee uitgangspunten die wat mij betreft ook voor de NCDD moeten gelden:
  1. Zorg dat je neutraal bent en ook zo gezien wordt.
    Het is voor mij dan dus de vraag of je zo nadrukkelijk moet aangeven wie de leden van de Coalitie zijn.
  2. Zorg dat je een echte coördinator kunt worden.
    Dat doe je door goed op de hoogte te zijn van wat verschillende organisaties in Nederland (en Europa) ontwikkelen en daarna in staat te zijn relevante partijen er toe te bewegen zaken gezamenlijk aan te pakken. Zorg dus dat je deskundige mensen in dienst heb, die dit kunnen realiseren.
Tenslotte nog twee verwijzingen:
Hier vind je de tweets en mindmaps die ik tijdens de conferentie verzonden heb.
Tweets NCDD 20090918

En hier vind je het radio-interview dat Inge aan Goedemorgen Nederland gegeven heeft voorafgaand aan de werkconferentie (vanaf 55:20)
Get Microsoft Silverlight

donderdag 6 augustus 2009

Digital preservation - The Planets Way (3)

Ik had nog een bericht over Digital preservation - The Planets Way beloofd.

Planets Testbed
De laatste dag mochten we experimenteren met het Planets Testbed. Het idee achter dit Testbed is om met een zo groot mogelijk corpus aan verschillende bestanden en bestandstypen te testen wat in een individueel geval de beste bewaarstrategie zou zijn.
Met behulp van het Testbed kun je testen wat de consequenties zijn van een conversie van formaat A naar formaat B, zonder dat je daar zelf al allerlei hulpmiddelen (servers, software) voor hoeft in te zetten. Eerst laad je (een selectie) van je bestanden op naar de Testbed-server of je zoekt in het beschikbare corpus naar bestanden die overeenkomen met je eigen bestanden en je bekijkt welke strategie je wil uitproberen. Naderhand kun je de resultaten zien en beoordelen.
Doordat deze beoordelingen ook weer aan het Testbed worden toegevoegd, wordt de kennis over welke bewaarstrategieën het best in specifieke situaties toegepast zouden kunnenw worden steeds groter.

Voor de cursus hadden ze een vijftal scenario's uitgewerkt, die in kleine groepen uitgevoerd moesten worden. De belangrijkste conclusie van deze 'hands on-experience' was dat de komende tijd aandacht besteed moet worden aan 'usability', aangezien iedere groep na verloop van tijd niet meer wist op welke knop nu weer geklikt moest worden.
Andere conclusie was dat de volgende keer de werkplekken waar de scenario's op uitgevoerd worden, iets beter op hun taak berekend moeten zijn. Een van de scenario's ging over het migreren van SVG-bestanden, maar op de laptop bleek geen programma geïnstalleerd te zijn waarmee svg-bestanden bekeken konden worden.

Overigens was dit ook het enige minpunt waar ik tijdens deze drie uitstekend georganiseerde dagen tegenaan gelopen ben. Ik weet niet wie daar de meeste complimenten voor verdient, PLANETS of de medewerkers van de KB en de Staatsbibliotheek die samen voor de organisatie verantwoordelijk waren.

Planets Interoperability Framework
Als afsluiting het PLANETS-plaatje, dat ik nog niet had laten zien.

Planets IF

Het doel van PLANETS is om een geïntegreerd platform te bieden, waarin alle activiteiten die uitgevoerd moeten worden bij het preserveren van digitale bestanden, gedaan kunnen worden: het Interoperability Framework.
Dat Platform zal zodanig in elkaar zitten dat een organisatie eigenlijk zelf amper nog faciliteiten en kennis nodig heeft om de taken uit te voeren:
  • Met behulp van de PLANET Core Registry kan achterhaald worden om wat voor typen bestanden het gaat en wat de beste bewaarmethode is
  • Met behulp van PLATO kunnen de activiteiten gepland worden
  • In het Testbed kan de organisatie ook nog een keer testen of de voorgestelde methode ook echt de beste is
  • De eventuele conversie wordt in het Framework uitgevoerd, waarbij op de achtergrond wordt met behulp van XCEL vastgesteld of een conversie echt goed is verlopen

vrijdag 3 juli 2009

Digital Preservation - The Planets Way (2)

Een van de doelstellingen van de bijeenkomst in Kopenhagen was om belanghebbenden en geïnteresseerden te informeren over de dingen die binnen PLANETS ontwikkeld worden. Vandaag een overzicht van een paar kleine dingen. Later volgen nog het Testbed en het Interoperability Framework waar alles uiteindelijk in samen moet komen.

Migratie van relationele databases
Voor het bewaren van relationele databases ontwikkelt het Schweizeris Bundesarchiv het SIARD-formaat.
Het probleem bij relationele databases zit hem in de relaties. Als je een database migreert moet je die relaties in stand zien te houden, want anders is de 'inhoud' van de database bijna waardeloos. Om dit te bewerkstelligen is SIARD ontwikkeld: Software-Independent Archiving of Relational Databases, waarmee Oracle, MS SQL en MS Access databases duurzaam bewaard kunnen worden.
Een SIARD-bestand is een container (zip64) met verschillende xml-bestanden. Voor iedere tabel in de database wordt een apart xml-bestand gemaakt, waarin de inhoud van de tabellen is opgenomen. Daarnaast wordt een metadata.xml gemaakt waarin de metadata (gebaseerd op SQL 1999) zijn opgenomen.

Uit de presentatie van Jean Marc Comment van juli 2008 maak ik op dat er drie applicaties ontwikkeld worden:

SiardFromDb extraheert en conveert de inhoud van een relationele database naar het SIARD-formaat.
SiardEdit is bedoeld voor het toevoegen en wijzigen van metadata
SiardToDb plaatst een SIARD bestand weer in een database instance en maakt het zoeken en navigeren in de database mogelijk.


Emulatie
Ik heb het hier al eerder gehad over emulatie en mijn bedenkingen bij deze techniek. In PLANETS is Dioscuri, de modulaire emulator van KB en NA waarop MS-DOS, FreeDos, LINUX 16-bits (ELKS) en MS Windows 3.0 kunnen draaien, verder ontwikkeld. Hier staat een uitgebreid verslag van vijf case studies met Dioscuri.
Een van mijn bezwaren tegen Dioscuri (en tot nu toe tegen emulatie in het algemeen), is dat het nogal wat technische kennis vergt om een emulator werkend te krijgen. En voor ieder hardware-platform moet je een aparte emulator bouwen. Daar hopen ze in PLANETS door middel van GRATE een oplossing voor te vinden. GRATE (Global Remote Access To Emulation) biedt "Emulation as a Service". Het zou als volgt moeten gaan werken en dit is de simpele uitleg, technisch zitten er nog wat haken en ogen aan:

Stel je hebt een Ami Pro bestand en je wil dit in de 'orgininele configuratie' bekijken. Dan upload je het bestand naar de GRATE-website, waar met behulp van PRONOM en de Planets Core Registry (zie beneden) bekeken wordt welk bestandsformaat het is en op wat de beste manier is om het bestand te tonen. GRATE levert dan een URL en door daar op te klikken, verschijnt in je browser Ami Pro in Windows 98!

 

Natuurlijk heb je dan nog altijd het probleem dat je moet weten hoe Ami Pro werkt, maar, vroeg Maureen Pennock zich tijdens de presentatie af, is dat niet vergelijkbaar met het kunnen ontcijferen van oud-schrift?

Planets Core Registry
Het laatste wat ik hier wil noemen is eigenlijk geen 'klein ding' maar het hart van PLANETS: de Core Registry.
Bij The National Archives in Londen hebben ze enige tijd geleden PRONOM ontwikkeld. Dit is een (online) register waarin allerlei gegevens over bestandsformaten worden bij gehouden, bijvoorbeeld over Word 6.0

De Core Registry wordt een uitbreiding van PRONOM, doordat het niet alleen informatie bevat over bestandstypen, maar ook over software(applicaties), hardware en media en 'preservation pathways'. Dit zijn een soort stappenplannen voor het bewaren van bepaalde bestandsformaten. In de Core Registry wordt bijvoorbeeld opgenomen met welke emulator Ami-pro bestanden het beste geraadpleegd kunnen worden, waardoor GRATE deze kan opstarten. Of in de Registry wordt bijvoorbeeld (op basis van Testbed-resultaten) opgenomen dat gif-bestanden het beste via jpg naar png gemigreerd kunnen worden, inclusief welke applicatie daar het meest geschikt voor is. Op basis hiervan kan dan in PLATO de juiste bewaarstrategie gekozen worden.


Wordt nog één keer vervolgd...

donderdag 25 juni 2009

Digital Preservation - The Planets Way (1)

Hoe beschrijf je drie zeer volle, zeer interessante en leerzame dagen in de prachtige KB in Kopenhagen
De makkelijke oplossing is: kijk hier. Dit zijn de tweets die drie van de aanwezigen de afgelopen dagen verzonden hebben. 
Een andere oplossing is: kijk hier. Dit is de weblog van Audun, die drie dagen live geblogd heeft.
Maar dat zou te gemakkelijk zijn. Laat ik zelf dus maar proberen een samenvatting te geven van de (in mijn ogen) belangrijkste dingen die ik gehoord en geleerd heb.
Planets staat voor Preservation and Long-term Access through Networked Services en is een vierjarig project, dat gedeeltelijk door de EU gesponsord wordt. Doel van het project is om praktische, toepasbare hulpmiddelen te ontwikkelen voor het langdurig toegankelijk houden van digitale objecten. De afgelopen dagen heb ik een paar heel spannende en veelbelovende ontwikkelingen gezien, die ik niet allemaal in één bericht kan beschrijven. Vandaag daarom alleen een stukje over XCL en PLATO.

XCDL en XCEL
Van de XCL-presentaties was ik echt heel erg onder de indruk. Bij de Universiteit van Keulen wordt gewerkt aan een eXtensible Characterisation Language. Doel is om te komen tot een 'taal' (eXtensible Characterisation Definition Language, XCDL) waarmee het mogelijk is de inhoud van digitale objecten te beschrijven. Tegelijkertijd werken ze aan eXtensible Characterisation Extraction Language (XCEL) waarmee het mogelijk is om geautomatiseerd XCDL-beschrijvingen van unieke bestanden te maken.
Een paar jaar geleden hoorde ik tijdens Tools & trends in de KB in Den Haag professor Thaller hier ook een presentatie over geven en ik snapte er destijds helemaal niets van. Gelukkig lieten Jan Schnasse en Volker Heydegger (medewerkers van Thaller) ons echt zien hoe het werkt en wat er mee mogelijk is. 
Met behulp van XCL kun je van een afbeelding bijvoorbeeld automatisch aspecten als het kleurenpalet, de breedte en de hoogte vastleggen. Maar dat niet alleen, op bit-niveau worden ook alle pixel-gegevens (waarde/kleur) opgeslagen. 
Wat heb je daar aan? Stel je wil een tiff-bestand converteren naar een png-bestand. Dan kun je met behulp van de Extraxctor vóór de conversie een XCDL-beschrijving van het tiff-bestand maken en na conversie een XCDL-beschrijving van het png-bestand. En nu komt de truc: deze beschrijvingen kun je geautomatiseerd laten vergelijken door een programma dat "Comparator" heet. Dat betekent dus dat je conversies niet 'handmatig' hoeft te controleren! En, wat ook interessant is, die Comparator ziet iedere pixel-afwijking, zelfs wanneer die met het menselijk oog niet te zien is!


Het beschrijven en analyseren van afbeelding zijn één ding, plaatjes zijn nog redelijk recht-toe recht-aan (al kunnen ze ook die bewegende gif-bestanden beschrijven). Teksten zijn echter een heel ander verhaal. Ze zijn nu bezig met het maken van een XCEL voor het beschrijven van tekst-bestanden. Hierin zal ook rekening gehouden worden met opmaak-verschijnselen als voetnoten, andere lettertypes en alinea's. Het is nu wel mogelijk om dit handmatig in een XCDL te beschrijven, maar ze hebben nog geen 'extractor' die dit geautomatiseerd voor grotere bestanden kan doen. Als het zo ver is, dan is het dus mogelijk om automatisch vast te stellen wat er eventueel verloren is gegaan bij een conversie van Microsoft Word naar ODF.

PLATO
Een andere ontwikkeling is de Planets Preservation Planning Tool (PLATO), waarmee bewaaracties voor een collectie gepland kunnen worden. 
Voor een organisatie is het vaak niet eenvoudig om vast te stellen wat de beste manier is om een bepaalde 'collectie' digitale objecten duurzaam toegankelijk te maken. Kunnen de bestanden het best gemigreerd worden of is emulatie de beste strategie? Naar welk nieuw bestandformaat kan het best gemigreerd worden en welke conversie-programma's zouden daar het best geschikt voor zijn? Hoe lang zal zo'n conversie-traject duren en wat gaat dat dan kosten?
Op basis van een mindmap-sjabloon kan een organisatie eerst proberen alle randvoorwaarden (zoals wettelijke bepalingen, budget, doorlooptijd, opslagruimte, eisen aan vorm, structuur en inhoud etc) zo 'meetbaar' mogelijk beschrijven. Daarna kunnen (op basis van sjablonen en beschreven 'migratiepaden' in de applicatie) de mogelijke bewaarstrategieën uitgeprobeerd worden. Dit is echt heel letterlijk, met behulp van en in PLATO kan een representatieve set bestanden bijvoorbeeld geconverteerd worden, waarna de resultaten vergeleken kunnen worden met de beschreven randvoorwaarden.  In de derde stap kan de organisatie de resultaten van de experimenten beoordelen en een aanbeveling voor een bewaarstrategie schrijven. De laatste stap is dan het vaststellen van een uitvoerbaar 'bewaarplan' en dat kan ook in PLATO.
Een van de belangrijkste doelen van PLATO is vooral vastleggen waarom welke keuzes gemaakt zijn, zodat het later altijd mogelijk is om hier verantwoording over af te leggen.

Later meer...

donderdag 4 juni 2009

Er is er een jarig

Vandaag precies een jaar geleden overhandigde ik tijdens de studiedagen van de KVAN in Utrecht het eerste exemplaar van ED3 aan Martin Berendse. Voor mij persoonlijk verliep de aanloop naar die dag nog al tumultueus. De ontwikkeling van de Eisen was daarentegen verbazingwekkend voorspoedig verlopen. In minder dan een jaar (de eerste vergadering vond plaats op 19 juni 2007) hebben we met zijn zevenen de eerste versie van de eisenset in elkaar gezet.


Meer dan soft- en hardware
Een van de doelen van het LOPAI bij het opstellen van de eisenset was om aan iedereen duidelijk te maken waar je aan moet denken bij het bouwen, beheren en gebruiken van een digitaal depot. Hierbij hebben we vooral duidelijk willen maken dat een digitaal depot niet (alleen) hard- en software is, maar dat de organisatie daar om heen minstens zo belangrijk is. Mede doordat we dit tijdens presentaties over ED3 zo sterk hebben benadrukt, denk ik dat we hier wel in zijn geslaagd. Dit blijkt onder andere uit de definitie van een eDepot, die in de kadernotitie van de Denktank e-depot van de Kring van Archivarissen in Limburg is overgenomen.

Referentiekader
ED3 werd het afgelopen jaar ook verschillende keren door anderen als ‘referentiekader’ gebruikt. In sommige gevallen heel terecht, in andere gevallen ben ik er wat minder gelukkig mee.
De gemeente Amsterdam heeft in 2008, nadat Gedeputeerde Staten van Noord-Holland het digitaal depot van de gemeente Amsterdam als onvoldoende hadden beoordeeld, Data Matters opdracht gegeven om een digitaal depot te bouwen. In het plan van eisen wordt veelvuldig verwezen naar de eisen uit ED3. Daarnaast maakt Amsterdam ook gebruik van de door ons voorgestelde ‘vertalingen’ van de OAIS-termen.
Waar ik minder gelukkig mee ben, maar wat we misschien gedeeltelijk zelf schuld zijn, is dat archiefdiensten ED3 gebruiken om eisen te stellen aan de beheersomgeving ‘in de administratie,’ met name als het gaat om vervanging van permanent te bewaren archiefstukken. ED3 is echter nooit bedoeld als toetsingskader voor het ‘dynamisch’ archief, zoals ook blijkt uit dit schema:

“Vertaling”
Ten slotte zijn we het afgelopen jaar ook een beetje beschimpt, omdat we het nodig vonden om de termen uit het OAIS-model te vertalen en omdat we alleen eisen voor het ‘statisch’ digitaal archief hebben opgesteld. Hieruit zou blijken dat het LOPAI slecht Engels begrijpt en zich alleen maar bekreund om permanent te bewaren archief.
Misschien is ‘vertaling’ van de OAIS-termen ook niet de goede omschrijving van wat we gedaan hebben. Het was wellicht beter geweest om te spreken over het transponeren van de Engelse OAIS-termen naar de Nederlandse archiefpraktijk, inclusief wet- en regelgeving.
De reden waarom wij gekozen hebben om eisen op te stellen voor ‘te bewaren archiefbescheiden’ is, omdat wij in dit geval inderdaad een analogie met de papieren situatie wilden handhaven. Op grond van de Archiefwet zijn lokale zorgdragers verplicht hun permanent te bewaren archiefbescheiden over te brengen naar een door Gedeputeerde Staten goedgekeurde archiefbewaarplaats. We hebben gemeend daarom eisen te moeten vaststellen voor de “digitale bewaarplaats”, waarin permanent te bewaren digitale archieven kunnen worden ondergebracht. Maar, in een bewaarplaats kunnen natuurlijk ook op termijn te vernietigen archiefbescheiden bewaard worden.

Vooruitblik
Vandaag is de werkgroep ED3 van het LOPAI weer bijeen op zijn vaste vergaderlocatie op Utrecht Centraal. Niet alleen om de eerste verjaardag te vieren, maar ook om te bekijken hoe we verder gaan. We zullen het daarbij over twee dingen gaan hebben:
  1. Opstellen nieuwe versie van ED3
    Het afgelopen jaar hebben we ED3 in de praktijk getest. Het doel daarbij was om vast te stellen of wij de goede vragen stellen, of de beheerders de vragen begrijpen en of wij de antwoorden snappen. Hieruit zijn al enkele verbeteringen naar voren gekomen, die waarschijnlijk in de loop van 2010 in een tweede versie zullen worden uitgewerkt.
    Maar we zullen uiteraard ook bekijken of nieuwe externe ontwikkelingen (bijvoorbeeld de ontwikkeling van nieuwe normen) aanpassing van ED3 noodzakelijk maken.

  2. Opstellen van een toetsinstrument voor de digitale beheersomgeving
    Het afgelopen jaar is steeds duidelijker geworden dat overheden en toezichthouders behoefte hebben aan een duidelijk kader voor de inrichting van hun digitaal archiefbeheer. Samen met de WGA gaan we de komende maanden proberen hier een eerste opzet voor te maken. Hierbij zullen we vooral uitgaan van de bestaande normen en hulpmiddelen en deze integreren tot één hanteerbaar kader.


Er is nog genoeg te doen!

(Afbeelding: Hannekes taarten)

woensdag 3 juni 2009

E-circulation?

Bij alle discussies over eDepots is nog maar weinig gesproken over de gewenste kwantiteit. Heeft ons vaderlands archiefwezen behoefte aan meerdere eDepots of is één groot systeem voldoende? Het lijkt erop dat het Nationaal Archief die laatste mening aanhangt.

Bij de komende decentralisatie van de RHC's is vanuit Den Haag aangegeven, dat deze instellingen kunnen aansluiten bij het centrale eDepot. Ook zouden mogelijk gemeenten hierbij kunnen aansluiten.
Dit zou een negatieve invloed kunnen hebben op regionale ontwikkelingen, waarin immers de RHC's vaak als primes inter pares een voortrekkersrol vervullen.
Is het niet wenselijker dat per landsdeel (ook) eDepots worden ontwikkeld? Hierin zouden behalve de RHC's ook de betrokken provincies, gemeenten, waterschappen en andere overheden gezamenlijk kunnen optrekken. Dat heeft voordelen:

1. er ontstaat een breed draagvlak voor het eDepot, zowel bestuurlijk als financieel
2. er kan goed worden aangesloten op regionale behoeften (tempo, omvang, etc)
3. er is mogelijkheid voor differentiatie bij de opzet, wat tunnelvisies voorkomt
4. er is onderlinge ondersteuning tussen eDepots mogelijk (risicospreiding).

Al met al genoeg om serieus te overwegen en naar goed gebruik in een beleidsvisie te verankeren?

woensdag 22 april 2009

Kun je je digitaal archief uitbesteden?

Het was een gemêleerd gezelschap dat gistermiddag bij elkaar was bij de expertmeeting in het Gemeentearchief Rotterdam: medewerkers van verschillende archiefdiensten (Amsterdam, Utrecht, ’s-Hertogenbosch, Nationaal Archief, Antwerpen en natuurlijk Rotterdam), twee archiefinspecteurs, de directeur van DEN, iemand van DANS, een ‘metselaar’ van Tessella (dixit P. Horsman), een emeritus hoogleraar, een IT-auditor, iemand van de NCDD en iemand van EOS.

Dit gezelschap moest aan de hand van een casus over de archiefdienst van een middelgrote gemeente vanuit verschillende perspectieven een antwoord geven op de vraag: Kun je het technisch beheer van digitaal archief uitbesteden? Wat zou je daarvoor technisch, organisatorisch, juridisch en archivistisch moeten regelen?

Iedereen was het er over eens dat er een onderscheid gemaakt moet worden tussen archiefbeheer en archiefzorg en tussen technisch beheer en intellectueel beheer. En als je dat onderscheid hanteert, vind ik het niet zo verwonderlijk dat vanuit alle vier de perspectieven het antwoord was: “Ja, mits…”
Wat dit betreft is er namelijk geen onderscheid in digitaal of analoog archief.

Voorwaarde is wel dat de zorgdrager er alles aan zal moeten doen om ‘in control’ te zijn. En daarbij maakt het weinig verschil of het werk in eigen huis of buiten de deur gebeurd.
Dit betekent ook dat de uitbestedende organisatie in staat moet zijn om te beoordelen of de diensten die door de externe partijen geleverd worden aan de maat zijn. En dat vereist weer de nodige expertise bij de dienst. Want je moet niet alleen weten wat je aan een leverancier moet vragen, maar je moet ook in staat zijn om de antwoorden op waarde te schatten.
Even een zijstap:
In dit verband vergeleek iemand ED3 met een Wat & hoe-boekje. Je kunt uit het boekje wel voorlezen: "Ku mund të gjej një ATM?"(Waar vind ik een pinautomaat?), maar dan moet je dit antwoord ook snappen: "Ka një vend në parlament në treg dhe ju mund pin atë. Le të shohim, në mënyrë që të merrni ju këtu në të majtë dhe pas njëqind metra në të djathtë dhe pastaj në restorantet e gjelbër me shenjë që ta kthejë majtë. Dhe atëherë të jeni atje."

Eigenlijk werd alleen vanuit de technische hoek aangegeven dat een archiefdienst van een middelgrote gemeente nooit in staat zou zijn het technisch beheer helemaal zelf te doen. De dienst zou nooit in staat zijn om alle expertise die nodig is om het digitaal archief te beheren in dienst te nemen.

Opvallend was verder dat mensen geneigd zijn om de betrouwbaarheid van eigen medewerkers hoger in te schatten dan die van externe partijen, bijvoorbeeld als het gaat om de toegang tot vertrouwelijke stukken. De praktijk wijst volgens mij uit dat de ‘inside man’ wat dit betreft een groter risico is, juist omdat hij of zij precies weet wat interessant is. (Wat dat betreft: ik weet bijna zeker dat er uit overheidsarchieven meer waardevolle stukken gestolen zijn door archivarissen, dan door schoonmakers of gebouwenbeheerders!)

Zoals het altijd gaat tijdens zo’n middag kwamen natuurlijk ook allerlei andere onderwerpen aan de orde. Een voor mij nieuw begrip wil ik hier nog even noemen: ‘de archivistische verwijderingsbijdrage’
Achtergrond bij dit begrop is de terechte constatering dat we nu vooral oplossingen aan de achterkant (het e-depot) aan het bedenken zijn, terwijl we bij het ontstaan van digitale archiefbescheiden er voor moeten zorgen dat ze bewaard kunnen blijven voor zolang als ze nodig zijn. Dit betekent dus ook dat je ieder archiefstuk vanaf het ontstaan goed moet beheren. En dat kost de archiefvormer geld.

Binnenkort zal op de website van het gemeentearchief Rotterdam een uitgebreider verslag verschijnen. En op de NCDD-blog is al impressie (met foto’s) te lezen.

dinsdag 31 maart 2009

Op weg naar een Limburgs e-depot (een gastblog van Mart Bohnen)

Mart Bohnen is archivaris bij het Bisdom Roermond en was initiatiefnemer van de Denktank Limburgs e-depot.

Sinds 1990 is bij het bisdom Roermond sprake van een toenemend gebruik van ICT bij de uitvoering van de werkprocessen. Met name de laatste jaren neemt de omvang van de digitale gegevens gestaag toe. Net als bij veel andere organisaties was het beheer van gegevens in digitale vorm van oudsher het domein van de afdeling ICT en ontfermde de archivaris zich alleen over het papier.
Wanneer het bij de digitale gegevens gaat om archiefbescheiden die deels ook op de langere termijn duurzaam toegankelijk moeten zijn, schuilt in deze traditionele taakverdeling een potentieel gevaar. Dit besef is vandaag de dag in Roermond nog nauwelijks aanwezig. Als archivaris probeer ik het diocesaan bestuur al enige tijd ervan te overtuigen dat ook bij het beheer van digitale gegevens rekening dient te worden houden met archivistische uitgangspunten, wil men de raadpleegbaarheid en authenticiteit van digitale gegevens op termijn kunnen garanderen. Behalve het op gang brengen van dit bewustmakingsproces binnen onze organisatie, vind ik het tevens noodzakelijk om het voortouw te nemen bij het in kaart brengen van de wijze waarop de theoretische oplossing voor dit probleem – het e-depot – in de praktijk bij het bisdom zijn beslag zou kunnen krijgen.
Dat voor het beantwoorden van dit vraagstuk aansluiting wordt gezocht bij oplossingen die de wereldlijke overheid dienaangaande nastreeft, is minder opmerkelijk dan het in eerste instantie lijkt. Om te voldoen aan de kerkrechtelijke voorschriften aangaande het archief- en informatiebeheer heeft de bisschop immers in 2004 voor zijn diocees een archiefregeling uitgevaardigd die deels is ontleend aan de Archiefwet en aan de ministeriële regelingen ex artikel 11, 12 en 13.

Vanuit de verwachting dat er bij meer collega-archivarissen in Limburg behoefte zou bestaan aan een praktisch antwoord op het digitale duurzaamheidsvraagstuk, heb ik tijdens de ledenvergadering van de Kring van Archivarissen in Limburg (KVAL) in de achterliggende periode meerdere malen aangedrongen op de totstandkoming van een werkgroep die zich op structurele wijze verdiept in het zoeken naar praktische oplossingen voor dit probleem. Zoals zo vaak in dit soort situaties, krijgt degene die het hardst ergens naar vraagt uiteindelijk zelf het verzoek om actie te ondernemen.
Het verzamelen van geschikte kandidaten die bereid waren zitting te nemen in een werkgroep verliep buitengewoon voorspoedig en zo ontstond medio 2008 de Denktank Limburgs e-depot, bestaande uit Ingmar Koch, Jo van der Meij, Geert Luykx en ondergetekende.
Tijdens de voorjaarsvergadering van de KVAL, op 25 maart jl., heeft de Denktank zijn plan van aanpak ontvouwd voor het oplossen van het digitale duurzaamheidsprobleem in onze provincie. We hebben het bestuur van KVAL een tweeledige aanpak voorgesteld: een gefaseerde realisatie van een e-depot in Limburg en de oprichting van een Platform Digitale Duurzaamheid.

Ons advies was gebaseerd op bevindingen, opgedaan tijdens gesprekken met de verschillende Limburgse archiefdiensten. Alle archiefdiensten beheren momenteel digitale gegevens, maar van originele archiefbescheiden in digitale vorm is slechts incidenteel sprake. Voor het merendeel gaat het om reproducties en documentatie. Bij alle archiefdiensten ontbreekt het momenteel aan voorschriften voor het beheer van de digitale bestanden. Ook is er nauwelijks zicht op de omvang en de aard van de digitale gegevens die in de nabije toekomst door de administratie worden overgebracht. Nergens lijken basisvoorzieningen aanwezig te zijn om de leesbaarheid, authenticiteit, inhoud en context van de archiefgegevens gedurende de administratieve fase te kunnen garanderen. Het merendeel van de archiefdiensten voelt voor samenwerking bij het oplossen van het digitale duurzaamheidsvraagstuk in Limburg, maar over de wijze waarop deze samenwerking gestalte dient te krijgen, wordt verschillend gedacht. Dit laatste geldt ook voor de rol die de archivaris hierbij moet spelen (proactief of alleen signalerend), voor het tijdstip van overbrenging (zo spoedig mogelijk, pas na twintig jaar of helemaal niet) en voor de aard/inhoud van het e-depot (digitale archiefbewaarplaats of ook digitale archiefruimte; alleen archiefdocumenten of ook reproducties en documentatie).

Na enige discussie heeft het bestuur van KVAL ingestemd met ons voorstel. Het streven is nu om vanaf september 2009 van start te gaan met diverse werkgroepen die elk op een specifiek terrein hun bijdrage moeten leveren aan het te realiseren handboek e-depot. Daarnaast dient er een eisenpakket te worden vastgesteld voor de hard- en software. Uitgangspunt voor de werkgroepen is dat niet zelf het wiel dient te worden uitgevonden. Van producten die elders zijn ontwikkeld, dient kritisch te worden onderzocht of ze bruikbaar zijn of bruikbaar kunnen worden gemaakt voor het Limburgse e-depot.
Na het ontwikkelen van de benodigde producten, breekt de zogenaamde laboratoriumfase aan waarin deze producten op hun toepasbaarheid worden getest en waar nodig bijgesteld. De verwachting bestaat dat de werkgroepen in het najaar van 2010 hun eerste producten kunnen leveren. Na afronding van de laboratoriumfase - waarvan de duur op voorhand niet valt te voorspellen - ontstaat het definitieve e-depot. Daarmee begint ook de permanente organisatie.
Tot en met de laboratoriumfase is sprake van een informele samenwerking. Wie mee wil doen, doet mee. Ook andere partners uit de culturele sector (onderwijs, museum- en bibliotheekwezen) zijn welkom. De Denktank fungeert bij dit alles als stuurgroep.

Naast deze gefaseerde realisatie van het e-depot gaat de Denktank aan de slag met het oprichten van een Platform Digitale Duurzaamheid. Het betreft het organiseren van themadagen en praktijksessies over digitale onderwerpen. Uit de gesprekken bij de archiefdiensten bleek namelijk ook dat er veel behoefte is aan uitwisseling van informatie. Het gaat niet alleen om informatie over e-depots, maar vooral ook over de wijze waarop de digitale informatievoorziening in de administratie kan worden georganiseerd. Het Platform is tevens toegankelijk voor de Brabantse archivarissen en de Limburgse gemeenten zonder archivaris.

Ook als bisdom willen we graag tot op zeker moment onze bijdrage leveren aan de gefaseerde realisatie van een Limburgs e-depot. Wat de uiteindelijke organisatievorm van het e-depot betreft, denk ik overigens eerder aan een toekomstig e-depot voor alle bisdommen in Nederland gezamenlijk, dat ook bestemd zal zijn voor het bewaren van digitale gegevens van parochies en andere aan de bisschoppen gelieerde rooms-katholieke instellingen, dan aan een definitieve participatie van het bisdom Roermond in een Limburgs e-depot. Deze - louter persoonlijke - gedachte wordt gevoed door het feit dat het ICT-beheer voor alle bisdommen landelijk is georganiseerd en dat men gebruikmaakt van één technische infrastructuur en van één integraal informatiesysteem. Als archivaris probeer ik te bewerkstelligen dat bij de inrichting en bij het beheer van dit mogelijk te realiseren interdiocesane e-depot rekening wordt gehouden met de archivistische uitgangspunten. Dit laatste geldt ook voor het beheer van de digitale gegevens gedurende de administratieve fase. Vandaar dat ik graag samen met onze landelijke IT-coördinator actief mee willen werken aan de totstandkoming van een handboek e-depot en aan de ontwikkeling van een eisenpakket waaraan de hard- en software voor het e-depot moet voldoen. Op basis van deze producten zouden de gezamenlijke bisdommen zelf een laboratoriumfase kunnen uitvoeren, parallel aan die van het Limburgs e-depot, om antwoord te krijgen op de vraag of een interdiocesaan e-depot een haalbare kaart is.

maandag 23 maart 2009

De opkomst van de aarde

Vorig jaar berichtte Chido op het Archiefforum over de NASA die computertapes met gegevens van de Apollo-maanlanders weer had teruggevonden.

Bij deze werelberoemde foto uit 1966, geldt een vergelijkbaar verhaal.
De foto werd gemaakt door Lunar Orbiter 1 en het was de eerste keer dat de Aarde als een volledige planeet gezien kon worden. Tot enkele maanden geleden kende de wereld alleen een foto die er een stuk beroerder uitzag.

In 1966 en 1967 stuurden de Verenigde Staten, om de geplande maanlanding voor te bereiden vijf onbemande ruimteschepen naar de maan. Het doel van deze Lunar Orbiters was om het volledige maanoppervlak te fotograferen, zodat een goede landingsplek voor de Apollo’s kon worden uitgezocht. In totaal stuurden de Orbiters in twee jaar bijna 2000 foto’s van het maanoppervlak terug naar de aarde. Daar werden de originelen opgeslagen op ‘2 inch wide tape’. De foto's die destijds op televisie uitgezonden werden en nu nog op de website van NASA staan, waren slechts gruizige en vervormde ‘snapshots’ van de originelen, de resolutie was gehalveerd en de ‘dynamic range’ was tot een kwart teruggebracht.
Dat de afbeelding hiernaast nog bestaat, is vooral te danken aan Nancy Evans, die in 1970 voorkwam dat de ruim 25000 banden bij NASA vernietigd werden. Overigens was het opslaan van de tapes, maar een deel van haar probleem. Zolang ze niet de beschikking had over een R-900 Ampex tapedrive, kon ze de banden niet raadplegen.

“But only a few dozen of the machines had been made for the military. The $330,000 tape drives were electronic behemoths, each 7 feet tall and weighing nearly a ton.”

Eind jaren tachtig slaagde ze er in de hand te leggen op vier kapotte tapedrives en omdat haar baas het eigenlijk al onzin vond dat ze de tapes bewaarde, sloeg ze de vier machines maar op in haar eigen garage.

In de LA Times van 22 maart 2009 wordt verder beschreven hoe NASA aangaf dat het waarschijnlijk 6 miljoen dollar zou kosten om de machines weer aan de praat te krijgen en hoe het drie mannen uiteindelijk lukt één machine weer werkend te krijgen.
(Ik stel me daar trouwens een soort “Scrapheap Challenge” bij voor)
Na 42 jaar waren ze erin geslaagd de wereldberoemde foto weer in zijn oude glorie te voorschijn te toveren. De kosten daarvoor bedroegen overigens $250.000,-

Ondertussen hebben ze nog een foto 'gerestaureerd.' Hier onder elkaar de Copernicuskrater. Boven de eerder gepubliceerde foto en onder de gerestaureerde.



Uit dit verhaal blijkt maar weer eens dat duurzame toegankelijkheid tot nu toe nog altijd afhankelijk is van enkele fanatiekelingen, die over veel tijd, kennis, enthousiasme en doorzettingsvermogen beschikken.

Vanaf wanneer zou dit niet meer het geval zijn?

Via Long Now.

maandag 2 februari 2009

Datakeurmerk = Vertrouwen


Vrijdag 30 januari was ik samen met Chido bij de Workshop “Towards Trusted Digital Archives for Social Science and Humanities Data” in Den Haag. (Voor de liefhebbers, hier staat het ‘live verslag’)
De dag was georganiseerd door DANS en vooral bedoeld om vast te stellen wat de waarde van het Datakeurmerk (in het Engels de Data Seal of Approval, DSA) voor data-archieven en hoe het Datakeurmerk zich verhoudt tot andere ‘tools’ als DRAMBORA en TRAC. Een paar constateringen en bedenkingen naar aanleiding van deze dag:

  • Het is al vaker gezegd, maar de wereld van de digitale depots is er vooral eentje van acroniemen. De oogst van deze keer: ESFRI, CESSDA, DARIAH, CLARIN, Euro-HORC, E-IPY-DIS, ICPSR.

  • Het Datakeurmerk bestond tot 29 januari uit 17 richtlijnen, maar sindsdien is er (letterlijk van de een op de andere dag) eentje vervallen en zijn de zestien andere drastisch herschreven. Deze flexibiliteit en beknoptheid is ook iets waar de 'eigenaars' naar streven. Het Datakeurmerk moet ‘simpel’ zijn. Het gevolg kan zijn, maar daar is men zich van bewust, dat het Keurmerk nietszeggend wordt, omdat iedereen er aan voldoet.

  • Het Datakeurmerk gaat uit van onderling vertrouwen en niet van externe certificering of toetsing. Alles is gericht op ‘self-assessment’, organisaties bekijken zelf in hoeverre ze voldoen aan de 16 richtlijnen en waarderen dit met één tot vier sterren. Het werd vrijdag echter niet duidelijk hoe je nu vaststelt of je voor een richtlijn één of vier sterren scoort. En het werd ook niet duidelijk wanneer je het Keurmerk verdient: moet je op alle richtlijnen minstens drie sterren scoren of mag je ook als je op een punt maar twee sterren hebt, het zegel op je website plakken? Om dit nu vast te stellen worden de DSAA opgesteld: Data Seal of Approval Assessement-tool. Hierin zal de DSA-board vaststellen wat de minimale criteria zijn.

  • Dat het Datakeurmerk “vertrouwen” als uitgangspunt neemt, leverde interessante vragen op over hoe ver dat vertrouwen gaat. Het lijkt er nu op dat het gaat om vertrouwen tussen “data archives” onderling. De ene dienst kijkt of de andere dienst het goed doet. Maar, als ik jou vertrouw en jij vertrouwt hem, kan ik hem dan ook vertrouwen? Of anders gezegd: is een systeem dat zichzelf vertrouwt, ook door buitenstaanders te vertrouwen?
    Chido vertaalde dit als: “I scratch your digital back, you scratch my digital back.”

  • Het Datakeurmerk stelt ook eisen aan de dataproducenten en –consumenten. Het is de vraag hoe zinvol / houdbaar dit is. Zo wordt er geëist dat de data die onderzoekers aanleveren betrouwbaar zijn. Moet een archief dan alle data die aangeboden worden inhoudelijk gaan controleren? Dan doen ze het werk van de onderzoekers over. En wat als later blijkt dat de data niet kloppen?
    Ten aanzien van de consumenten / gebruikers staat er dat zij zich aan de wet moeten houden. En als iemand dit niet doet? Verliest het archief dan zijn keurmerk?

  • Het Nederlands archiefwezen was de grote afwezige. Naast Chido en ik was er niemand van een Nederlandse archiefdienst. Blijkbaar heerst daar het idee dat de problemen die data archieven hebben, heel veel afwijken van de problemen die archief archieven hebben.

woensdag 28 januari 2009

De psychologie van nadenken over de toekomst


The future will come,
And it will fool us again.
Like it did last time.

Aroneus

Via de Long Now blog kwam ik op voor mij onbekend terrein: de psychologie van lange termijn denken.
Alexander Rose verwijst onder andere naar de Overcoming Bias-blog van Robin Hanson.
In zijn bericht Abstract/Distant Future Bias beschrijft Hanson dat we altijd vooringenomen zijn als we plannen voor de toekomst maken:

"Regarding distant futures, however, we'll be too confident, focus too much on unlikely global events, rely too much on trends, theories, and loose abstractions, while neglecting details and variation. We'll assume the main events take place far away (e.g., space), and uniformly across large regions. We'll focus on untrustworthy consistently-behaving globally-organized social-others. And we'll neglect feasibility, taking chances to achieve core grand symbolic values, rather than ordinary muddled values."

Hij voegt hier trouwens aan toe dat deze vooringenomenheid niet betekent dat onze toekomst-ideeën (op voorhand) niet waar zijn.

We zijn het er denk ik wel over eens dat digitale toegankelijkheid een interdisciplinaire aanpak vereist. Blijkbaar hebben we daarbij ook psychologen en filosofen nodig.

Afbeelding: M.C. Escher

maandag 5 januari 2009

Het is waar, maar hoe help je de archiefvormer? (Een 'gastblog' van Frans Smit)

Op 14 november 2008 schreef Frans Smit een artikel in De Automatiseringsgids, met als titel Overheidsinformatie onbeperkt houdbaar maken. Met daarin het volgende citaat:

Je kunt je [...] afvragen of het overdragen van informatie wel zo wenselijk is. ED3 gaat begrijpelijkerwijs uit van de huidige wet- en regelgeving op het gebied van archiefbeheer. In de analoge wereld is ‘overdracht’ een fysieke activiteit. In de digitale wereld is zoiets eigenlijk onwenselijk. Het kan namelijk een hoop onnodige bureaucratie en dubbel werk veroorzaken. Is het daarom niet beter om dit concept te herzien?

Daar wilden we wat meer over weten en we hebben Frans Smit gevraagd voor een 'gastblog'. Tot ons genoegen ging hij akkoord en hieronder treft u het resultaat.

Een Gastblog geeft een betrokkene de gelegenheid een inzicht of mening te publiceren, voor zover dit raakvlakken heeft met het terrein van deze Blog. Meningen en feiten zijn volledig voor rekening van de betrokkene en hoeven niet het standpunt van het LOPAI of een der leden weer te geven.


Het is waar, maar hoe help je de archiefvormer?
Frans Smit, management consultant bij Ordina Public Management Consultating (OPMC). E-mail: frans.smit@ordina.nl

In oktober 2008 werd een conferentie georganiseerd over e-depots, en dan met name over wat zeker in de Lage Landen als best practice mag worden gezien: het e-depot van Antwerpen. De Belgen doen het beter m.b.t. de digitalisering van de overheid (zie http://www.politiek-digitaal.nl/belgen). Dat geldt ook voor de ontwikkeling van een keten van digitaal informatiebeheer, tot en met de ontwikkeling van een omgeving voor eeuwige digitale bewaring. Met behulp van open standaarden.

Uit de E-David nieuwsbrief, nummer 8, haal ik de volgende conclusies van de studiedag:



Volgende voorwaarden zijn essentieel voor een goed functionerend digitaal
depot:
  1. Verankeren van het archiveringsproces in de organisatie: digitaal
    documentbeheer en digitale archivering maken deel uit van de werkprocessen van een organisatie en behoren tot de taken van elke medewerker.
  2. Organiseren van het archiveren: een organisatie werkt best met een
    geïntegreerd beheerssysteem. Dit betekent dat voor alle archiefdocumenten,
    ongeacht het medium of de applicatie waarin ze worden gecreëerd of beheerd,
    dezelfde beheersstructuur en metadatastandaarden gelden.
  3. Structureren van de informatie: elke medewerker is verantwoordelijk om zijn
    dossiers volledig te maken en te structureren.
Deze conclusies heb ik met enige verbazing gelezen. Natuurlijk is het allemaal waar wat er staat. En ik ben blij om te lezen dat de kennis over het instrumentarium en over processen van digitaal informatiebeheer echt behoorlijk is toegenomen.

Maar al deze punten zijn eisen die je niet aan jezelf stelt, maar aan degene wiens informatie je moet gaan beheren. Een ander moet het beter doen. Dan komt het in orde. Die sfeer ademt uit het citaat.

Dat is jammer, want op basis van de op zich correcte bevindingen zou je een prachtig actieprogramma kunnen samenstellen om klantgericht je voorgangers in de informatieketen te helpen. Op die manier zet je jezelf op de kaart en laat je je niet in de hoek zetten waar archivarissen (met heel hun kennis van verantwoord duurzaam informatiebeheer) zich nog maar al te vaak bevinden.

Het zou een goede zaak zijn als de archiefgemeenschap per bovenstaande conclusie expliciet aan zou geven wat het zelf denkt te gaan doen om archiefvormers actief en effectief te faciliteren. Tools zijn er tegenwoordig genoeg. ED3 kan zich ontwikkelen tot zo’n instrument dat geweldig nuttig kan blijken te zijn om de kloof in kennis en communicatie tussen archiefvormers en archiefbeheerders te overbruggen.

Als je maar duidelijk blijft maken aan de archiefvormers wat zij ermee kunnen winnen en wat je zelf aan positieve bijdrage levert.