perolsen.net

Det præteknologiske gennembrud

Det præteknologiske gennembrud (Portal)  

Kapitel 4 Eksisterende teknokultur i 1996

4.6.b. Træk af udviklingen for programmering

Selve de principper, man anvender ved programmeringen af komputersystemer, har man altså kendt faktisk i årtusinder, de danner grundprincippet for enhver offentlig procedures handling. Man har tidligt regnet ud, at en given række operationelle handlinger i en given orden vil give forud beregnelige resultater.

Algoritmiseringen af dagligdagen bliver stadigt mere vigtig, efterhånden som kulturen bliver mere og mere indviklet og uoverskuelig. Oprindeligt har man kun haft algoritmer for høvdingens optræden, for de rituelle fester, for hvem som skulle have hvilke dele af byttedyret og lignende ceremonielle procedurer med forud fastlagte trin, som skulle udføres i en forud fastlagt rækkefølge.

Senere, da byerne voksede sig store, havde man for eksempel algoritmiserede handlinger i forbindelse med transporten af affald, med hvordan man købte og solgte og lignende, alle disse historiske aspekter skal blive vigtige i næste kapitel.

Ideen om at disse forud fastlagte forløb kunne processeres altså afvikles mekanisk, tilskrives ofte Charles Babbage, nævnt under ADA i omstående slutnote. Han formulerede de første ideer, som skulle blive til hulkort, men hans maskine manglede evnen til at regne hurtigt nok, der skulle strøm på. Med Alan Turingb formuleredes, det vi i dag kalder "Turing-maskinen", altså ideen om: at et læsehoved kunne aflæse en strimmel, hvor hver position enten blev perforeret (med et 0), eller ikke blev perforeret (et 1).

Hermed havde man en teoretisk algoritme for, hvordan beregning (engelsk: computing) kunne udføres, hvis man fortolkede for eksempel et 1-tal som en ordre om at lægge til og så videre. - Men man manglede stadig nogle måder at fordele den strøm, som skulle slukkes og tændes.[i]

Den første generation af komputere løste dette problem ved hjælp af radiorør. Kæmpestore anordninger på størrelse med huse voksede frem i 1951, det første år med egentlig komputermagt på denne planet. Maskinerne blev let overordentligt varme, når man brugte dem og syntes uoverskuelige, for så vidt at der altid sprang et rør her eller der. Alle data blev lagt på hulkort og store magnetiske tape-ruller. En af de bedst kendte maskiner i 1. generation: UNIVAC.

Den anden generation af komputere blev lanceret i slutningen af 1950'erne og begyndelsen af 1960'erne. Nu anvendte man de transistorer som E.T. Company havde spredt på massemarkedet. Maskinen blev en del mindre, man anvendte nu ikke blot hulkort og magnetiske tape-ruller, men også disketter i et noget andet format end de kendes i 1996. Kendte maskiner i 2. generation: IBM's 1401 og Honeywell's 400.

Den tredie generation af komputere blev allerede lanceret i midten af 1960'erne og i de tidlige 1970'ere. Igen fremstod maskinerne som betydeligt mindre, de første halvleder-chips blev anvendt. Hulkort og magnet-bånd forsvandt og i stedet udvikledes disketter og harddiske. De første almindeligt anvendelige online terminaler. Kendte maskiner i 3. generation: IBM's 360/Series.

Den fjerde generation af komputere regnes af flere forskere blot som en videre udvikling af den tredie. Igen blev maskinerne mindre. Chips blev nu til mikroprocessorer, udviklet fra de spæde Z-80 og lignende til familien af 80286 til 80486-chips og senere Pentium. Fjerde generation lanceres for alvor samtidigt med det præteknologiske gennembrud. De første maskiner i dette gennembrud bliver stadig bedre, mindre i fysisk størrelse og større i kapacitet og meget hurtigere i løbet af perioden. De fleste større maskiner efter 1976 hører til 4. generationen af komputere.

Den femte generation af komputere har man ventet længe på. Den skal tilbyde parallelle processorer, som kan behandle data i stil med den menneskelige hjerne, altså: mange små processorer: regneenheder i samarbejde men med forskellige opgaver, ikke - som i 4. generation - én centralprocessor som løser alle opgaver altså men et samvirke. 5. generation kaldes af nogle forskere "kvantekomputeren", som skal kunne regne i forskellige kvantetilstande, og skal kunne formindskes helt ned i det subatomare. Her udover skal 5. generations komputeren uden besvær kunne genkende almindeligt talesprog også skriftsprog. Den skal kunne svare i disse sprog og den skal kunne modtage og afspille alle typer audio/visuelle og sensoriske in-put. Den skal kunne skabe virtuelle virkeligheder, samt skal kunne skabe den første generation af velfungerende kunstig intelligens ikke blot ekspertsystemer, som de kendes fra 4. generationen af komputere (mere herom i kapitel 5 og 6).

For programmørerne har denne udvikling altså ikke betydet de store forandringer. Sprog udviklet til 1. og 2. generationskomputere anvendes uden videre problemer i 1996 på 4. generations systemer, principperne forbliver jo de samme, om end metoderne - de maskinafhængige metoder - står som stadigt forbedrede og raffinerede gennem hele perioden.

Hvor de første maskiner skulle betjenes med et ret indviklet sæt af kommandoer, det som endte i DOS, har man nu udviklet de grafiske, intuitive brugerforbindelser: "Windows" i de forskellige versioner, hvor brugeren ikke skal huske og kunne så meget kode for at få systemet til at fungere. Dette skyldes dog ikke en principiel forandring i systemerne, blot at programmørerne - som alle professionelle - lidt efter lidt har gjort tingene lettere, mere overskuelige og effektive..

Selv den nyeste udvikling hvor man går væk fra at skrive kode, men blot sammenføjer stumper af allerede skrevet kode gennem visuelle, intuitive forbindelser, står ikke som en egentlig nyskabelse men som en fortsættelse af de ideer, der allerede lå i overgangen fra fortolker til kompilersprog, og især i udvikling af UNIX-styresystemet.

Det står da også som en alment anerkendt problemkerne, at ikke maskinernes manglende evner, men det forhold at man til stadighed skal tage hensyn til aldrende, om end velfungerende 4. generationsmaskiner, står i vejen for udvikling af en egentlig nytænkning i forbindelse med overgangen til en 5. generation den længe ventede.

Ser man specielt på programmørens rolle, så synes det altså i første omgang lettere at udføre arbejdet med de stadigt mere brugervenlige programmeringssprog og deres miljøer, og med de stadigt mere ydedygtige maskiner og deres stadigt mere fleksible og samarbejdsvillige styresystemer.

Samtidigt findes der dog en mængde stive og uomgåelige fastsatte normer, som hænger sammen med den nedadgående brugsegnethed, den som forlanges af soft-ware. Efterhånden skrives der dog ikke meget programmel egnet til de tidlige 4. generations chips 80286'eren for eksempel.

Forfatteren sidder nok ikke som den eneste, der tit har tænkt: "Bare man kunne starte helt forfra, designe en helt ny chip-struktur, helt nye regler for BIOS, helt nye ... ..." og så videre og så videre.

- Måske vil forskerne finde ud af, at dette faktisk bliver nødvendigt for overhovedet at opnå den tilstrækkelige kraft som parallelprocessorteknologi a vil kræve. Maskiner som "transputeren" og "connection machine" [ii] har udviklet rækker og geledder af enkelte processorer sat op i en samarbejdende helhed, som til en hvis grad skaber en illusion af parallel altså samtidigt distribueret databehandling, alligevel har disse maskiner ikke fundet vej ud til mere almene (for)brugere, på grund af den beskrevne nedadgående teknologitræghed skyldet de gamle maskiner, og på grund af den manglende soft-ware, -: hvad skal man nemlig bruge en transputer, én som næsten kan simulere en parallelprocessor, til?

- Udviklingen af 5. generations komputeren vil derfor måske nok komme til at betyde en fuldstændig forkastelse af 4. generationen og for at få gennemført denne forkastelse, vil det nok synes absolut nødvendigt, at man udvikler en fuldstændigt ydedygtig soft-ware-platform. Altså en platform som ikke blot kan alt det nye: - talegenkendelse, optagelse og beregning af skiftende billeder, holografiske miljøer og lignende, på samme vis som den menneskelige hjerne, Virtual Reality på holografisk højt plan, udførelse af mange samtidige opgaver (: såkaldt ægte multi-tasking), og ægte kunstig intelligens; - men som også har bedre og mere funktionsvenlige versioner af de programmer, som vi i dag alle allerede bruger: tekstbehandling, komputerspil, kommunikationsforbindelser, kulturel underholdning, simuleringer og programmering.

Og samtidigt med alle disse krav skal bæsterne altså så også kunne betales, ikke blot af de få professionelle brugere - som ved indledningen af det præteknologiske gennembrud - nej, nu kræver markedet maskiner, som kan betales af 100'er millioner af almindelige borgere.

- Måske derfor har der - siden det præteknologiske gennembrud bragte maskinerne ud til folket - mere syntes tale om en evindelig forbedring, opfindelser af nye formater og anvendelsesmuligheder, en sammenvoksning af de mange forskellige komputere og maskiner i underholdningsbranchen, end en egentlig udvikling af de mål, man allerede midt i det præteknologiske gennembrud havde opstillet som realistiske for den kommende 5. generation; - der altså lader vente på sig.

- Og denne suspenderede situation står ikke som noget umiddelbart gode for udviklingen. På den ene side kan man mene; at programmerne i 4. generation jo udfører de opgaver, vi har sat dem, til punkt og prikke, - på den anden side mister vi altså for hver dag der går mulighederne for at realisere de forventede udviklinger som 5. generationen vil bringe os, blandt disse: nanoteknologi, kunstig intelligens, beregninger i og udfra kvantetilstande og meget mere.

For programmøren kan udviklingen godt gå denne vej. Man kan sagtens udvikle algoritmerne, søgestrategierne og de forskellige stykker hard-ware som skal få det hele til at fungere. Alt det afhænger blot af hvem som betaler, ikke alene programmørens løn, men også de maskiner vedkommende skal udvikle og betjene.

Her opstår så rentabilitetsproblemet! -: Hvem tør tage en chance? Med et så alvorligt skridt som den forventede (faktisk: længe ventede) 5. generation, skal der ikke blot en virkelig godt hard-ware løsning til: duelig, billig og så videre, der skal heller ikke blot et virkeligt godt sæt af styresystemer og soft-ware til, ej heller blot den rette pris og markedsføring; - nej: der skal kunne snakkes med de gamle 4. generationsmaskiner, og der skal kunne udstedes produktionslicenser til alle de andre store firmaer, som vil hoppe på vognen, hvis man får en anvendelig, salgbar vare ud på markedet. Samtidigt skal netop denne sidste funktion ikke formuleres så frit, at konkurrenterne blot forbedrer og fornyer ens system, og så udkonkurrerer en. Måske også derfor går det langsomt med denne udvikling.

Den "geniale" komputermand/kvinde, som lancerer en løsning og dermed den næste generation af maskiner, vil garanteret tænke som så: det skal blive muligt for 4. generationsfolket at overføre deres tekster og billeder, deres spil, hele Internettet skal på en eller anden måde beriges og forbedres, alle deres lydfiler, animationer, videofilm og lignende skal kunne følge med, og så skal der virkelig ske et gennembrud med den virtuelle realitet, dén skal sælge systemet sammen med helt nye programmeringsmuligheder herunder selvprogrammering som led i den kunstige intelligens. - Det sker nok så - midt i disse tanker - at denne "geniale" opfinder falder tilbage til 4. generationsmaskineriet ... og så når vi lige langt ...

Nå, godt ord igen: se de næstfølgende kapitler her i:
"Det præteknologiske gennembrud 1976-1996".

[TOP]


     b Alan Turing: Alan Turing (1912-1954) engelsk matematiker. Blandt de førende tidlige forskere i datateknologier. Formulerede ideen om at et læsehoved, som enten kender 0 eller 1, kan læse alle typer data formuleret således (binært digitalt). "Den universelle Turingmaskine" har stadig et "læsehoved" (den centrale processor) efter Turings opskrift. Moderne datamater kan beskrives som: "et antal Turingmaskiner oven på hinanden". Se eventuelt om "Turingtesten" i fodnoten til kapitel 5 (V.21). Officielt på grund af sin homoseksualitet, men nok også på grund af sit meget altfavnende, gådefulde geni, blev Turing endnu en skarpt forfulgt dissident, udelukket fra de fleste leksika og oversigtsværker (jævnfør fodnoterne om Crowley, Hubbard og Leary laåitel 2 (II.20f)). Se eventuelt også slutnote til kapitel 3 (III.70.SNB.27) om Tesla, og slutnoten til kapitel 4 (IV.91), samt Andrew Hodges i bibliografien.

     a parallelprocessorteknologi: altså den idé; at flere processorer i samarbejde vil kunne løse langt større opgaver meget hurtigere end den enkelte centrale processorenhed kan i 1996. Som beskrevet omstënde består hjernens neuroner og deres system af ud- og indgående datalæsninger i et sådant parallelt distribueret, samtidigt netværk, som kan foretage massivt mange millioner beregninger i løbet af ganske få tidsintervaller.

[TOP]


 

[i]. Princippet som inspirerede både Alan Turing og John von Neumann i 1940'erne, da det teoretiske grundarbejde for det præteknologiske gennembrud lagdes, lød ganske enkelt: tag enhver matematisk, logisk formel og fjern alle data, som ikke kan omsættes i en enkel fungerende maskine. Den såkaldte formalistiske matematik formuleret af Neumanns lærer David Hilbert.

 

Turings "universelle maskine" viste: at et enkelt læsehoved kan tage stilling til data kodet ind på en strimmel, ét efter ét i en lang serie databeregninger. Alle data som kan omsættes til binær logik, kan i princippet læses af et mekanisk læsehoved, som tager stilling til ja/nej eller en/nul. - Det smarte naturligvis: at bygge flere Turingmaskiner ovenpå hinanden og dermed øge såvel kodens muligheder som antallet af data og tiden strimmellæsningen tager.

 

I 1940 formulerede Neumann, hvad nu kaldes "von Neumanns flaskehals"; det grundprincip at en central processorenhed (Turings "læsehoved") ekspederer data rundt i lagre og registre og således styrer hele maskinen og dens beregninger (se eventuelt fodnoterne hvor CPU og chips præsenteres).

 

Om end allerede den 1980'er kendte Amiga, en legekomputer, brugte flere processorer, forlod hverken den eller andre komputersystemer under det præteknologiske gennembrud disse grundliggende ideer.

 

Den serielle, sekvensielle altså ensrettede fortløbende datastrøm gennem det centrale læsehoved, hvis hastighed jo fandt forøgelse fra de flotte 8 MHz i 1970'erne til standard 100 MHz og flotte 200 MHz i 1996.  

 

Turings papirstrimmel (databus) blev først til elektriske modstande i Neumanns første forsøg, så blev strimlen til hulkort og magnetbånd. Von Neumann byggede siden ENIAC: talknusergennembrudet for den amerikanske hærs beregningsbehov.

 

I juni 1945 fremsatte Neumann, med sine to medarbejdere Burk og Goldstein deres: "Indledende diskussioner af det logiske design af et elektronisk beregningsinstrument" ("Preliminary Discussion of the Logical Design of an Electronic Computing Instrument").

 

Den centrale processorenhed, flaskehalsen, anvendes og bibeholdes altså under hele det præteknologiske gennembrud, også selv om parallelle processorer, neurale netværk og andre metoder for "massiv parallelt distribueret databehandling" betegner drømme om at undgå denne styrende, urokkelige, logiske læsehovedflaskehals. Som anmærket i teksten har ideen om, at de mange forbundne Turingmaskiner i samarbejde kunne udgøre mange flaskehalse spredt sig.

 

Det spor i slutnoterne som handler om hemmelige affærer, 90'ernes populære "X-Files" bør her berette ikke blot, at Turings tidlige død regnes for meget mystisk, se eventuelt hans hjemmeside på Internettet) og også von Neumann-myterne rummer mange mystiske tildragelser. Denne ungarsk/amerikanske matematiker siges almindeligvis født i 1903 og død i 1957, mens forskere som Nichols og Moon samt andre kilder, har skabt en overlevende person, som på grund af sin rolle i det legendariske Philadelphiaeksperiment fik hjernevask af de højere myndigheder, og endte som komputer- og radioudstyrs skrothandleren Doktor Rinehart.

 

I følge myterne skabte Teslas praktik og Einsteins ideer om en forenet feltteori mulighed for et eksperiment i militær usynlighed, som den unge von Neumann gennemførte den 12/8-1943, efter at Tesla og Einstein bakkede ud på grund af manglende sikkerhed. - Myterne som kendtes ganske godt i kraft af Berlitzs berømte bog herom (se eventuelt også Commander X og Brad Steiger i bibliografien) siger nu, at skibet "The Eldrige" forsvandt fra radarskærmene senere fra virkelighedens nu og faktisk så 40 år ind i fremtiden til den 12. August 1983, - midtvejs i det præteknologiske gennembrud - hvor en altså overlevende John von Neumann og andre modtog deres ufrivillige tidsrejsende. Først løste disse så nogle problemer med (naturligvis, jævnfør den tids mytedannelser) en UFO-fuld af ekstraterrestrials og en "mange-mulige-verdener"-kamp om sejren i anden verdenskrig. Derefter flyttedes der rundt på elektroniske apparater i tidslommen, nogle maskiner sendtes tilbage og blev siden fundet igen. En del af disse data fremgår også af de to film herom "The Philadelphia Experiment" og "The Philadelphia Experiment II". - Naturligvis har man også fra officielt hold benægtet denne sag på alle måder med inddragelse af alle de kendte eksperter.

Det spændende ved Preston B. Nichols og Peter Moons bøger herom opstår dér, hvor de repræsenterer adskillige mennesker som efterhånden ihukommer deres deltagelse i projektet (i nogen grad som beskrevet i endnu en film fra perioden: "Total Recall"), efterhånden som forsøget på at hjernevaske dem fejler, eller de dramatiske begivenheder fra tidligere liv slår igennem og i begge tilfælde aktiverer en hukommelse, som andre involverede kan bekræfte og understøtte, samtidigt med at deres forskning fører dem langs indviklede synkrone ledesnore rundt i den moderne teknologihistorie, dens myter og magi.

 

Et særligt spektakulært element i disse myter opstod ved, at forfatterne faktisk fandt den hemmelige militære base (Camp Hero på Long Island), hvor det lykkedes dem (og senere især K.B. Wells, Jr. i "The Montauk Files") fotografisk at dokumentere mange mystiske installationer og efterladte maskiner, inden myndighederne lukkede stedet ned og fyldte cement i de tidligere åbne skakter og indgange til lejren, som beviseligt lukkedes i al hast i 1983 kort efter det påståede møde med de tidsrejsende og i øvrigt til stor overraskelse for de øvrige, civile beboere i Montauk, hvor hændelsen udspillede sig. 

 

 

 

[ii]. Transputeren produceret i Europa kombinerer en række enkelte centrale processorenheder. "Alt om data" beskrev den i sit nummer 10 1987 p. 16ff: "Fremtidens processor" og fastholdt det gamle problem:

 

"Forskerne har forlængst måtte sande, at hverken de nuværende personlige computeres 1 million instruktioner per sekund (MIPS) eller supercomputeren Cray 2's 1.000 MIPS er tilstrækkeligt."

Omend flaskehalsen ikke sprængtes under det præteknologiske gennembrud, og det blev processorfirmaet Intels Pentiumserie, som tegnede standard, kom transputerchips så som T800, T414 med i IBMs genlancering af hjemmekomputeren i slutningen af 1980'erne og i begyndelsen af 1990'erne PS/2-familiens farvebehandlingsenhed. - Så ideen udgjorde en farbar vej mod større datakraft, større og hurtigere dataadressering.

 

Året efter, i 1988, skriver Brunak og Lautrup om "The Connection Machine", som sælges af Thinking Machines Corporation ("Neurale netværk" p. 83):

 

"Den største version indeholder 65.536 processorer, sammenkoblet i et hyberkubisk netværk, der har lige så mange kanter som en terning ville have i et tolvdimensionalt rum!".

At de enkelte processorer så formelt kan skifte adresse, gav maskinen store muligheder i slutningen af 1980'erne. - Dog på længere sigt viste de neurale netværk sig mere i stand til at samle forskernes interesse.

 

Erik Torpegaard øste af sin erfaring med neurale netværk op til 1995, han støttede stadig Brunak og Lautrups store forventninger (jævnfør referatet fra "Flensborg Avis" omstående). Her i Torpegaards formulering ("Berlingske Tidende" kronikken tirsdag 5/12-1995):

 

"Det kan forudses, at man i nær fremtid vil træne en række nyttige netværk eller maskiner, der kan bruges som oversættere, trendsættere og billedbehandlere for senere at øge abstraktionsniveauet og sammenhængen, og dermed skabe maskiner, der i bevidthedsudvikling vil nærme sig eller på nogle områder vil overgå mennesket.".

Også Torpegaard hører lidt til den forskergeneration, som slutnoterne tidligere og senere præsenterer. Hans glade kvanteklare julebudskab til 1995-læseren: at data først bliver til information, når en observatør tillægger den betydning, - og hvad bliver da betydningen?

 

Torpegaard henviser til Bateson: "Information er den forskel der gør en forskel", og fortsætter længere nede med klar konsekvenstænkning af de indsigter allerede Winograd og Flores havde formuleret:

"Det er modtageren, der gør data til information. Det er modtageren, der skal være den bevidste part, og det er først, når man bruger data til noget og ser dem i sammenhæng med anden viden, at de bliver til information.".

 

Det kan som en lille hale på disse sidste fremsynede og kloge forskere tilføjes, at de i nogen grad fik ret angående fremtidens kunstige intelligens, og som et kuriosum bør det måske ebdvidere bemærkes, at Torpegaards anvendelse af ordet "data" som et flertalsord, med tiden op til 50året for det præteknologiske gennembrud blev til et entalsord "den data", også når talen faldt på for eksempel de store datamængder, som blev høstet og forhandlet at de såkaldte "data-brokers", der vidersolgte "den indhøstede data fra diverse platforme" for eksempel.

[TOP]