Læseren

Hele World Wide Web kan betragtes som én stor verdensomspændende hypertekst. Som hypertekst-læser kan man altså i princippet klikke sig frem til den information, man søger, hvis først man blot har en enkelt adresse som udgangspunkt: Hvis det er et godt HTML-dokument, der dukker frem i browseren første gang, vil det indeholde hypertekst-referencer, som man kan følge og ad den vej finde den information, man søger. Risikoen er dog stor for, at ens læsning bliver meget snæver, da der ingen garanti er for, at de hypertekster, man møder, er særligt velfunderede. Er det et dårligt dokument man starter med, er risikoen, at man aldrig når videre.

Hvis man vil sikre sig et bredt udsnit af dokumenter, der handler om ens interesse, med øget chance for en bred tilgang til stoffet, er alternativet til den blotte klikken de oversigter og søgemaskiner, der findes i massevis af.

Både med hensyn til oversigterne og søgemaskinerne er der tale om databaser, der indeholder URL’er med tilhørende beskrivelser af indholdet, som man kan foretage søgning i.

Er det en oversigt, man søger i, er indholdet redigeret og som regel indtastet mere eller mindre manuelt af ejerne af oversigten. Dette giver som oftest en lille garanti for dokumentets seriøsitet (i hvert fald da det blev optaget i databasen), da dokumenterne, ved optagelsen, diskrimineres ud fra en kritisk bedømmelse (hævder dem der gør det i hvert fald): Er dokumentets indhold ikke lødigt nok, kommer det ikke med i oversigten.

Søgemaskinerne forlader sig i højere grad på automatik. De er baseret på en agent – et program, der selv kravler rundt fra dokument til dokument og registrere, hvad det finder undervejs. Hvad der findes organiseres herefter i en database efter indholdet afhængig af selve teksten i dokumentet og/eller indholdet af de meta-data, der eventuelt findes i dokumentet.

Søgemaskinerne gav oprindeligt – som udgangspunkt – kun garanti for, at der også kom ubrugelig information med – hypertekstuel skrald. Til gengæld var og er mængden af  materiale, der registreres på denne måde så meget større, at ulempen ved det overflødige materiale opvejes, og da visse søgemaskiner efterhånden ydermere er udstyret med endog meget effektive algoritmer til prioritering af søgeresultaterne, er disse et meget stærkt alternativ til den manuelt sorterede database.

Det er formentlig disse søgeredskaber, der redder World Wide Web fra at drukne i egen succes. Uden søgefaciliteter må chancen for at finde frem til bestemt – især når der er tale om specialiseret – information betragtes som yderst begrænset. Det ville være som at gå på biblioteket med kun bøgernes noteværk til rådighed for at lede til det ønskede materiale.