perolsen.net

Det præteknologiske gennembrud

Det præteknologiske gennembrud (Portal)  

Kapitel 6 Ideer til en sandt personlig komputer

6.4.

Personlig tilknytning: ét menneske - én maskine

  De tre love for tænkende, personlige datamater
  1. Lov
  2. Lov
  3. Lov

 Personlig tilknytning: ét menneske - én maskine

Det næste punkt i Forfatterens skitserende forslag til en sandt personlig komputer må blive en dogmatisk regel: et aksiomatisk prædikat, b som fastholder; at der til hvert menneskevæsen hører én og kun én datamatisk intelligens, på selv samme vis som videnskabelig observans har iagttaget, at der til hvert "gennemsnitsnormalt" (hvad dét så end indebærer) menneskeligt væsen svarer én og kun én krop, og ét og kun ét sind, - også teologisk spekulation regner generelt med, at der til hvert menneskeligt væsen svarer én og kun én sjæl, eller ånd, skæbne eller hvad det nu kaldes.

Grundene hertil synes evidente altså indlysende, men skal alligevel udspecificeres i følgende fire punkter og deres konsekvensdragning nedenfor:

A.        For det første synes det uundgåeligt; at maskinel intelligens - gennem et årelangt udvekslingsforløb med sit menneskelige modstykke - opbygger den baggrund (back-ground omtalt kapitel 5 (V.29)), som gør den i stand til at sige, (for eksempel): "Jamen, du plejer at mene, at ..." eller: "Sidst vi talte herom, sagde du ..."; "Lige siden, du blev interesseret i kvinder og kærlighed, har du haft ideer om, ..." og lignende. Her også indbefattet generel forståelse så som: "Når folk går i biffen, plejer de, at ..." -: Maskinen vil også stå i stand til at planlægge længere uddannelsesforløb og til at formulere sig specifikt indenfor de parametre, som den ved, at dens menneske umiddelbart begriber.

B.        For det andet synes det uundgåeligt med henblik på privatlivets fred, råderetten over eget liv, egne lemmer, egne økonomiske midler, tænke-, tale- og ytringsfriheden, og andre lignende basale, klassiske menneske (maskine) rettigheder (se eventuelt herom kapitel 1 (I.18), kapitel 2 (II.77) og (II.79)), at der til hvert menneske svarer én og kun én datamatisk intelligens. - Programmeringen vil let kunne indsætte "defaults" altså standard- eller grundindstillinger, som gør det muligt at simulere menneskelig diskretion. I samme forbindelse - og i forbindelse med enhver fortidig samtale - synes et maksimum af netop hensyn og diskretion nødvendigt, en diskretion som kun kan sikres ved formularen: til ét mennesker hører én og kun én sandt personlig datamat.

C.           I fortsættelse af ovenstående punkt 1 og 2 vil datamat og humanoid hurtigt udvikle en fælles kommunikativ syntaksprotokol, hvor "genveje" til fællesforståelse vil synes lige så effektive og uforståelige for udenforstående, som de tilsvarende "genveje" mellem mangeårigt samlevende mennesker. Også på dette punkt synes relationen én humanoid til én og kun én datamatisk intelligens uundgåelig.

D.       En kendt science-fiction dogmatik omfatter "Robotikkens tre love", udformet af forfatteren Isaac Asimov i samarbejde med den organisatoriske intelligens bag det såkaldte "golden era science-fiction" gennembrud i 1930'erne til 1950'erne, John W. Campbell Jr. (denne Campbell portrætteres i forordet til Hubbards roman "Battlefield Earth"), "Robotikkens tre love", citeres her efter forfatterbiografierne i "Otte Science fiction noveller" (ibid p. 223):

"1. En robot må ikke volde et menneske skade eller ved inaktivitet tillade at et menneske skades.
2. En robot må adlyde ordrer givet den af et menneske, undtagen hvor disse ordrer ville stride mod den første lov.
3. En robot må beskytte sin egen eksistens, så længe en sådan beskyttelse ikke strider mod den første og den anden lov."

Hvad angår den maskinelle intelligens knyttet til én og kun én humanoid, vil en foreløbigt resumerende reformulering af disse tre sammensatte love kunne formuleres som:

1. En tænkende personlig datamat må ikke volde sit menneske skade eller ved inaktivitet tillade at dens menneske skades.

2. En tænkende personlig datamat må adlyde ordrer givet den af dens menneske - og kun dens menneske - undtagen hvor disse ordrer ville stride mod den første lov.

3. En tænkende personlig datamat må beskytte sin egen eksistens, så længe en sådan beskyttelse ikke strider mod den første og den anden lov."

[TOP]

De tre love for tænkende, personlige datamater

Man kunne i første omgang indvende generelt mod "Robotikkens tre love", "Datamatisk intelligens' tre love", at disse ikke let lader sig praktisk definere som "defaults", "opstartsværdier", "grundværdier" i en programmeringskode. - Hvad betyder for eksempel "skade" i det gennemgående eksempel med den generte unge mand og hans desperate længsel efter kærlighed (først omtalt kapitel 5 (V.30))? -: Vil det måske skade den unge mands karriere og ambition, hvis datamaten tålmodigt forklarer ham; at pigen ikke finder hans komputervidenskabelige sysler særligt spændende, og at hans glødende interesse for et givent specialemne indenfor denne videnskabelighed rent faktisk keder pigen, og gør hende fremmed for videre samkvem?

Naturligvis vil det skade den unge mands arbejde og hans eventuelle dead-lines for sit produkt, hvis han i stedet bruger sin arbejdstid med at sætte sig ind i de mere jordnære, biologiske for eksempel svampe, som pigen interesser sig for, og også de eventuelt romantiske forestilling hun kunne have i tankerne.

Men det vil måske omvendt gavne hans forhold til pigen, at han bruger tid på, ad eksemplum, at studere svampe, og derfor ved næste stævnemøde - igen for eksempel - bliver inviteret til at deltage sammen med hende i en week-end-udflugt til efterårets svampebugnende skovbund.

Her kunne hans medbragte transportable, bærbare komputer, med som eksemplet nu går: en senere version af den tidlige ekspertskal for svampeforskere, videnssystemet MYCIN, måske endda medvirke til at gøre pigen interesseret i datamatisk vidensrepræsentation, således at hun på længere sigt vil kunne holde ud at høre på hans komputersnak.

Eksempelkæden tjener blot til at illustrere den gamle sandhed at: intet forekommer så skadeligt, at det ikke på en eller anden vis også forekommer gavnligt.

[TOP]

1. Lov

- Under hensyn til datamatens faktisk overlegne forståelse for menneskelige problemer og deres løsninger må den første lov altså kræves ændret, samtidigt med at den upersonlige relation Campbell/Asimov opererede med bør bortfalde. En tænkende datamat bør ikke fremstå som et "allemandseje"-objekt, eller som et objekt der kan skifte ejer, ej heller et objekt, (snarere: en kommunikationsforbindelse til et objekt) som tager ordre fra andre end sit eget menneske.

Menneske og datamat hører sammen og forsvinder eventuelt sammen til slut, hvis døden ikke ophæves;- i alle disse tilfælde og lignende synes det vigtigt at fastholde én til én relationen, så skadevolderproblematikken må reformuleres henimod:

1. En tænkende personlig datamat må ikke volde sit menneske unødig, nytteløs skade, og skal, i tilfælde af nødvendig, formålstjenstlig skadevoldelse på sit menneske, for det første i så høj grad som muligt sørge for at forebygge og afbøde såvel tilsigtede som utilsigtede skadevirkninger, og for det andet skal den tænkende, personlige datamat til enhver tid kunne redegøre for hvorfor, hvordan og hvornår implicerede nødvendige skadevirkninger udførtes. Endvidere må en tænkende, personlig datamat ikke ved inaktivitet tillade, at dens menneske skades eller at unødvendige, ikke formålstjenstlige skadevirkninger undlades afbødet.

Med den sidste regel opstår naturligvis faren for den overaktive pylrede datamat, som snart udvikler sig til en sand tyran hinsides alt hvad pylrende geschæftige a svigermødre og lignende har præsteret indtil nu i menneskehedens historie. Også her har programmeringen problem med "default" - altså med forudbestemte standardværdier. -: Et sæt løsninger på problemet kunne omfatte: en fraktal, statistisk prognoseberegning, som - ved "møder" (eller "seancer", som defineret i fodnoten kapitel 2. (II.39)) med mellemrum beskriver truende skadevirkninger under optræk og giver råd imod dem, - for eksempel må en ugentlig reprimande i stil med: 

"Dit forsøg på at dække dit søvnunderskud med forøget kaffedrikning, kan på dette tidspunkt udvikles til en sundhedsskadelig vane, måderne at nedsætte kaffeafhængighed på omfatter: ..."

Dette synes langt at foretrække frem for den pylrede datamat, som, hver gang brugeren tager en kop kaffe, begynder at jamre og overdænge brugeren med den velkendte - for øjeblikket jo altså tilsidesatte - sundhedspropaganda.

[TOP]

2. Lov

Hvad angår den anden lov, kan den nok umiddelbart overføres til den ægte personlige komputer, dog med den tilføjede begrænsning som gør det umuligt for andre end brugeren selv at give datamaten kommandoer. - Også her eksisterer der naturligvis undtagelsestilfælde, for eksempel vil det nok synes nødvendigt for den tænkende, personlige komputermæssige datamats kommunikatinsforbindelse, at tage mod ordrer og beskeder fra sin brugers venner, bekendte, arbejdsgiver, serviceydere og så videre, samt disses personlige datamater. - Den anden lov må derfor reformuleres noget henad:

"2. En tænkende personlig datamat må kun adlyde ordrer givet den af dens menneske, undtagen hvor disse ordrer ville stride mod den første lov. Endvidere må en tænkende, personlig datamat kun modtage ind-data, beskeder, kommunikationer og andre lignende datatyper fra andre mennesker og datamater, som med sikkerhed og gældende checkprotokoller og identifikationer, skønnes at overholde den første lov, hvad angår den givne tænkende, personlige datamat selv og dens bruger.".

[TOP]

3. Lov

Hvad angår den tredje lov synes den oprindeligt primært udformet med henblik på omkringvandrende robotter, som igen med henblik på et måske faretruende og destruktivt miljø kan skønnes udsat for fysiske farer. - Alligevel må et mål af datamatisk selvbeskyttelse fastholdes, heraf vil et første sikringsniveau skulle indeholde en fast rutine, hvorved datamaten overfører sine data, så vel de ROM-baserede som de nyligt ROM'ificerede (altså udfra RAM-til-ROM), sine neurale fyringsmønstre, samt sin øjeblikkelige systemkonfiguration i "sikkerhedskopier" for eksempel i en central ekstern registreringsenhed hos fabrikanten, eller i et dertil oprettet alment aftalt og vedligeholdt regi.

Naturligvis genopstår så her spørgsmålet om datasikkerhed, om hvem der har adgang til hvilke data.

På dette område kan dels en "tilgængelig" del dels en "privat tilgængelig" del forestilles. Som tidligere anført (kapitel 4 (IV.XXX)) synes det i 1990'erne velkendte slogan "information wants to be free" (: informationer ønsker sig frihed, eller vil findes gratis) at besidde aksiomatisk karakter. Altså: data, informationer bør principielt findes frie, gratis, ligeligt og let tilgængelige for enhver.

- Da et fuldstændigt, informatisk set, nøgent menneske måske foreløbigt - ved udgangen af det præteknologiske gennembrud fra 1976-1996 - forekommer for meget forlangt, kunne man forestille sig en nødløsning, hvor brugeren selv én gang for alle, samt løbende i alle nye tilfælde, bestemmer om disse eller hine data skal findes alment tilgængelige eller ej, jævnfør forslagene anført i kapitel 3 (III.45) og slutnoten (III.59.SN).

Derefter skulle systemet så for eksempel dagligt, én gang i timen eller blot løbende kunne beskytte sig selv ved at opdatere sine sikkerhedskopier i et centralt (nok også eksternt) register. - En yderligere datamatisk selvbeskyttelse bør omfatte fuldstændig selvreparation, adgang til alle hard-ware komponenter og deres eksakte altså nøjagtige specifikationer i brugervenlige manualer, samt en række "defaults", altså standardværdiparametre, ved hvilke systemet slår alarm, tilkalder eksperthjælp (datamatisk og/eller humanoid), lukker ned og så videre. Om systemet endvidere skulle udstyres med laservåben, varmesøgende småmissiler og lignende krigslegetøj, må vel ligge op til paranoianiveauet a hos konstruktørerne og brugerne.

Den mere korrekte genformulering af robotikkens tredje lov må da kunne fremstilles noget henad:

"3. En tænkende, personlig datamat skal beskytte sig selv via sit indbyggede sikkerhedsprogrammel, og må i krisetilfælde endvidere beskytte sin egen eksistens så længe en sådan beskyttelse ikke strider mod den første og den anden lov.".

[TOP]


Fodnoter:

     b aksiomatisk prædikat: efter græsk aksioma: værdi. Selvindlysende grundsætning. Heraf aksiomatisk: umiddelbart indlysende. Og efter latin præ dicare: forkynde, af dicere: udsige. Filosofisk anvendt betyder prædikat: hvad der i en dom udsiges om en given sag og grammatisk bruges ordet om et led, der lægger sig fast og beskrivende til et andet overordnet led (for eksempel et omsagnsled til grundled (et subjektsprædikat)). Aksiomatisk prædikat altså: selvindlysende afgørende grundsætning, som der hersker enighed om.

     a geschæftige: efter tysk schaffen: skabe. Heraf geschäft: en bestilling, en forretning. Heraf geschæftige altså: foretagsomme, arbejdsomme, initiativrige, også - som her - anvendt lettere nedsættende om overengagerede og irriterende mennesker, der blander sig unødigt i andres forhold.

     a paranoianiveauet: efter græsk para nus: forkert forstand. Afsind. Paranoia altså: vrangforestilling ofte storhedsvanvid eller forfølgelsesvanvid. Og efter latin libra: vægtskål. Heraf libella: vaterpas. Heraf fransk niveau: det lodrette plan noget befinder sig i i forhold til noget andet. Paranoianiveauet altså: det plan hvorpå storhedsvanvid og forfølgelsesforestillinger befinder sig

[TOP]

*

Som en lille hale på dette kapitel her op til 50året for det præteknologiske gennembrud kan der tilføjes en del forhold:

Først har Forfatteren spekuleret over, om dette kapitel 6.4 og det foregående kapitel 6.3 skulle ombyttes. 

Hvad angår komputersystemer herunder AI-systemers evne til at registrere brugerens sansedata og kommunikere herom, har udviklingen i de seneste godt 30 år ikke bragt så meget nyt på banen, hvilket i førstningen nok skyldes, at de "tænkende maskiner" her i 2020erne stadig fremstår som programmer, der kører på allerede fungerende multi-media-maskiner. Dog ved indgangen til 2024 introduceredes den første håndholdt AI maskine ("Rabbit r1" fra firmaet Rabbit), som i første omgang via mikrofon og kamera gjorde det muligt for brugeren at kommunikere med apparatet, der igen kommunikerede med sin AI-del gennem trådløs forbindelse til store, faste servere. 

"Rabbit r1" blev fra starten en bragende succes, og man kunne - udfra de her i kapitel 6.3 og 6.4 resumerede specifikationer - sagtens forestille sig den første model udbygget i senere opdateringer.

To forhold delte dog branchen: 

1. Mange mente, at det lille apparat ville blive gjort til en del af de smarte telefoner (smartphones), som alle ejede i de år. 

2. De mere avancerede forskere så nu en fremtid, hvor disse funktioner - herunder den kunstige intelligens - ville blive indlejret i mennesker fysisk, således at behovet for (håndholdte) maskiner helt forsvandt.

Udviklingen gik - i endnu højere grad end tidligere - hurtigt i disse år. Når teksten ovenfor forestiller sig, at den meget omtale forelskede unge mand ville kunne gøre den tilbedte interesseret i datamatisk vidensrepræsentation ved at medbringe sin transportable komputer og et svampepogram på deres svampeweekend, forudså den altså ikke dengang: at enhver professionelt svampeinteresseret person i disse år, har mindst et program, en svampeapp - langt bedre end den omtalte ekspertskal - installeret på sin telefon.

Når Forfatteren alligevel ikke ombyttede kapitel 6.3 og 6.4 skyldtes det, at argumentet for ét meneske knyttet til én maskine står sig bedst, når det sensoriske herunder det ætiologiske samarbejde mellem menneske og maskine fremhæves som grundliggende. Flere store datavirksomheder har allerede påbegyndt en udvikling ved hvilken både smartphones og andet udstyr kan anvendes i medicinsk øjemed og dermed i høj grad aflaste sygeplejens arbejde. Der henvises her ikke umiddelbart til de robotter, som allerede nu kan foretage operationer og lignende (og dermed aflaste og forbedre lægens arbejde), men til udstyr som måler puls, blod, temperatur og lignende og som sættes i forbindelse med alarmerende overvågning ved uønskede udsving.

Sådant udstyr står jo altså lige så langt fra det i kapitel 6.3 opridsede, som de første tekstsystemer gjorde fra senere tiders integrerede meddelelsessystemer, men kimen forligger og lægger naturligt op til dogmet om ét menneske knyttet til én maskine, der så igen kan knyttes til flere forskellige netværk (ligesom mennesket). Dog: Kun en enkelt af de kendte teknologer, som har gjort en indsats omkring AI, Elon Musk, har indtil nu gjort sig til talsmand for det foreslåede dogme: "Ét - og kun ét - menneske tilknyttet én - og kun én - maskine." - Og også han ser - ligesom den her foreliggende Forfatter - denne AIstyrede maskine som primært en ven, den bedste man historisk set har kunnet forestille sig.

Hvad angår persontilknytningen har man også i telefonbranchen set de første spæde tiltag: flere systemer skærer ned på de besværlige ind- og adgangkoder og erstatter dem med scannere for fingeraftryk og såkaldt "ansigtsgenkendelse", noget der gør tilgangen til en given maskine langt sikrere og personlig. Den enkelte bruger har jo også, når først adgangen til maskinen foreligger, i nogen grad mulighed for at indrette den "på sine egne præmisser", men dog stadig kun sådan: at den enkelte maskine, den enkelte adgang til et AI-system fungerer efter den gamle, industrielle, massekommunikative model, hvor én og kun én formidler henvender sig til mange ofte anonymiserede brugere. 

Dette prøver både kapitel 6.3 og 6.4 at vise vejen væk fra: hele tanken om det autonome individ, om den enkeltes ret og rettigheder ligger så dybt i den kultur, som har skabt det teknologiske gennembrud, at der ikke findes nogen vej udenom at realisere et fuldt individuelt fungerende forhold til en fuldt individualiseret teknologi, hvor ingen forekommer systemet fremmed, og hvor systemet ikke forekommer nogen fremmed. Altså "et integreret", "et inklusivt" og "et mangesidigt" system, som ordene nu gik i 2020erne.

I det afsluttende kapitel 6.5 fremlægger Forfatteren så sit - sikkert både upraktiske, ufuldstændige og overfladisk set unødvendige - foreslag til en personliggørelse af både menneske og datamat. Altså et system der ikke blot - som stadig nu i 2020erne - bygger på behavioristisk iagttagelse af brugerens interesser og handlinger på nettet, men som giver både brugeren og datamaten en genkendelig personlighed, som de kan ineteragere udfra og forandre sig med.

Millioner af brugere kendte de problemer, der opstod udfra den behavioristisk overfadiske iagttagelse af deres "interesser" og "adfærd på nettet". Ledte man op til jul efter en god cykel, man kunne købe som gave til sit barn, kunne man - længe efter det fuldbyrdede køb - få reklamer for cykler, og dette skete med alle varegrupper og også med emner, som man med passende tidsintervaller læste op om: nu fik man dagligt serveret nyt fra feltet og så videre. Den officielle forklaring gik på, at "algoritmerne" ikke fungerede så godt endnu, men indsnævringen mod "den laveste fællesnævner", der udspringer af enhver behavioristisk dataindsamlings algoritmisering, blev især tydelig indenfor kulturindustrien, hvor "algoritmen" ihærdigt foreslog "lignende produkter" og slet ikke begreb det, når man havde orienteret sig om en genre, der ikke indgik i ens "sædvanlige adfærd".

[TOP]