Nada - en institution i ständig utveckling

Ingrid Melinder

Numerisk analys

Ämnet numerisk analys bröt sig loss från tillämpad matematik 1962 och året därpå avancerade laborator Germund Dahlquist och blev Sveriges förste professor i ämnet med ansvar för forskning och utbildning både på KTH och SU. Många av de redan etablerade professorerna var skeptiska till att ge datamaskinen och numerisk analys, "räknestickans användning", den erkänsla som ett eget akademiskt ämne innebär. Det var inte heller lätt att få gehör för att införa nya kurser och att anställa lärare. Germund var dock inte ensam utan hade stor hjälp av bl a Åke Björck, Gerd Eriksson, Sven-Åke Gustafsson, Lars-Erik Thorelli och en sekreterare, Margareta Hellström. Vi gav kurser i siffermaskiners användning, sedermera numeriska beräkningsmetoder, Nubbe, beskrivande geometri - BESQ, och räkneautomatteori. Alla 550 teknologerna läste samma allmänna kurs i två delar, men ett 30tal universitetsstudenter hade en egen kurs som omfattade en hel termins studier. Däremot samsades ett trettiotal om Germund i fortsättningskursen. Ni kan läsa i tillbakablicken som Henrik Eriksson skrivit om teknologernas uppfattning.

Institutionen har alltid insisterat på att välja lämpligt språk för att lära ut god programmeringsteknik framför att lära ut det som används mest i arbetslivet. Sålunda läste vi Algol och kompletterade med Fortran på Besk resp CDC. Hålremsa, hålkort och Job Control Language var sättet att kommunicera med datamaskinerna, som fanns på Drottninggatan i Stockholm och Universitetet i Uppsala. Själva ägde vi 15 Facit elektriska räknemaskiner där vi snurrade fram siffror till omfattande tabeller för att lära oss interpolera och lösa ekvationer med omfattande felkalkyler. Inom de 4 betyg (80 p) som jag läste fanns också utrymme för kurser i Simula, Lisp, Frasstrukturgrammatik, Logik och artificiell intellingens. Våra gästlärare var bl a Carl-Erik Fröberg, Heinz Kreiss och Erik Sandewall. Professorerna reste runt och undervisade på universiteten i landet för att snabbare kunna bygga upp en bred kompetens.

Informationsbehandling

Behovet av administrativa system ökade användningen av datamaskinerna och ämnet Informationsbehandling särskilt ADB fick sin förste professor, Börje Langefors, redan 1965. I Stockholm beslöt man att satsa på en central datamaskincentral, QZ, men vår institution som ville behålla sin frihet köpte redan 1970 en minidator med 8 terminaler. Interaktiv databehandling och tidsdelningssystem med programspråket Basic gjorde sitt intåg. Vi fick ett hjälpmedel som var lätt att använda och som gav direktsvar.Exemplen kunde göras större och roligare. Vi kunde med stolthet rita stapeldiagram med hjälp av * och andra tecken och man började till och med att fundera över vilken bokstav som var lämpligast att använda för att få rätt lutning på den kurva som skulle avspegla tabellresultatet, grafisk databehandling i sin linda. Automatisk formelbehandling blev populärt och doktoranderna studerade Donald Knuths monumentalverk "The Art of Computer Programming", kap 1 - 4.

Både innehåll och form i utbildningen utvecklades dramatiskt och numeriska metoder och programmering separerades i olika kurser. Lärarkåren växte och forskarutbildningen tog fart med Germund som ende huvudhandledare för ett 20-tal doktorander. Antalet studenter började öka redan på 70-talet (efter 1968) och tillgången på utbildade lärare var mycket begränsad. Vi övningsassistenter undervisade på dagarna och forskarstuderade på kvällar och nätter. Några få hade utbildningsbidrag. Tillgången på disputerade ökade och vi kunde anställa lektorer. De två första, Hans Riesel och Yngve Sundblad hade fullmakt av hans majestät konungen Gustaf VI Adolf. Vi andra har fått nöja oss med beslut av rektor och numera prefekt.

Datalogi

Utbildningen i ADB växte och 1972 bildades två institutioner, men namnet Nada antogs inte förrän 1979. Detta avspeglar expansionen av datalogi och dess betydelse, som befästes när Stefan Arnborg tillsattes som professor 1982. Han hade redan varit adjungerad professor och då hade datalogiintresserade doktorander antagits i ämnet numerisk analys. Avhandlingarna inom numerisk analys omfattade på den tiden ett mycket brett spektrum. Styva differentialekvationer blev huvudfåran för numerikerna, men också slumptalsgeneratorer, SIMULA-kompilatorer, LAX (gissa vad det var?), datorgrafik och bildbehandling var alltså Informationsbehandling, särskilt numerisk analys.

Institutionen med Yngve Sundblad som primus motor tog ett mycket stort ansvar för att datatekniklinjen inrättades 1983 på KTH. Då fick vi möjlighet till omfattande nyinvesteringar och nyutveckling av kurser. Redan några år tidigare hade han lyckats utöka matematikerlinjen på SU till att bli fyraårig med en speciell inriktning mot datalogi. Växelspelet mellan satsningarna på KTH och SU har varit mycket fruktbar för utbildningen och givit institutionen stor möjlighet att använda våra resurser effektivt. Persondatorerna gjorde sitt intåg och vi satsade på Macintosh. Datorsalar med Macar gav studenterna helt nya möjligheter till produktion och integration av text och bild. Det blev enkelt att skriva text och att rita kurvor och bilder. Datorparken växte och vi anställde särskilt duktiga personer som kunde sköta dem. Maskinerna kopplades ihop i ett nät enligt en skiss som Örjan Ekeberg visade på en tågresa till en ämneskonferens utanför Uppsala 1983 - föregångaren till KTHLan.

Under 80-talet växte de externa bidragen så att forskningsgrupper kunde bli mera självstaändiga. Så kan ni t ex i tillbakablicken om MDI läsa hur IPLab bildades med Dialogprojektet som fokuserade på grafisk interaktion. Då initierades också bildbehandling på Nada och Jan-Olof Eklundh blev professor i datalogi med inriktning mot datorseende och Cvap knoppades av. Teorigruppens ursprung kan härledas till att Stefan Arnborg och hans doktorander deltog i ett av STU stött utvecklingsbolag Myprog. Gruppen stärktes väsentligt när fakulteten 1992 beslöt att finansiera ytterligare en professur med Johan Håstad som innehavare, medan numerikerna hade bidrag även från ITM, Institutet för tillämpad matematik. I slutet av 80-talet skedde nästa avknoppning genom att Sans-gruppen bildades.

Beräkningar

Avsikten med C2M2 som bildades 1987 var att stimulera samarbetet mellan matematiker, fluid-mekaniker, Nada-iter och andra tillämpare genom koncentration på intressegemenskapen stora beräkningsproblem. Vi kunde därmed attrahera Heinz Kreiss som vetenskaplig ledare och sedermera Björn Engquist som efterträdde Germund Dahlquist på professuren i numerisk analys. Det innebar en logisk utvidgning av det forskningsområde Germund drivit fram: vi lade till P(artiella) framför DifferentialEkvationerna.

Det fanns många bra numeriska metoder men KTH behövde också kraftfulla datorer för att omsätta ideerna till resultat av numeriska experiment som kunde föra vetenskapen framåt. Parallell-datorer blev 1987 med Connection Machine, Bellman, tillgängliga för en bredare användarkrets. Från att ha varit svalt under början av 80-talet blev vårt intresse nu mycket konkret: en dator med en processor per obekant var en realitet! Lars- Erik Thorelli och Jan-Olov Eklundh såg de nya möjligheterna och med Nutek-stöd kunde Magnus Person, Gert Svensson och Jesper Oppelstrup arbeta intensivt för att skapa PDC som invigdes 1990.

Samarbete

Under 90-talet fokuserades finansiärernas intresse till att påskynda kunskapsutbytet mellan universitet och näringsliv liksom att öka samarbetet med andra länder, främst Europa. Det har lett till en kraftig tillväxt på Nada efter mycket stora insatser från forskarna. 1995 bildades de två av Nutek initierade kompetenscentra Cid och Psci och samtidigt utsågs PDC till nationens huvudcentrum för högpresterande datorkraft. Året därpå bildades Cas som en SSF-finansierad långsiktig strategisk satsning för att utveckla autonoma system med Henrik Christensen som professor och föreståndare. Förutom ett ökat samarbete gjordes stora ansträngningar för att påskynda och effektivisera utbildningen av forskare som också var industrikompatibla direkt efter examen. De omfattande externa bidrag som finns på institutionen har i mycket stor utsträckning använts till att utbilda doktorer. Det har fört med sig att vi nu har över 80 aktiva doktorander och att varje forskargrupp har minst två handledare och många doktorander. Grupperna tar ett stort ansvar också för seminarieverksamhet, kursutbud och undervisning i både forskar- och grundutbildningen. Därmed fungerar de som forskarskolor. Vi är dessutom aktiva i de fyra forskarskolorna Autonoma system, HMI, Teknisk-vetenskapliga beräkningar och Flerfasströmning.

Människa-datorinteraktion

Den mångfacetterade användningen av datorer har ökat intresset för enkel interaktion mellan människa och dator. Detta har nyligen befästs på Nada genom att Kerstin Severinson-Eklundh blev professor i MDI och området inrättades som eget akademiskt ämne 1998. Institutionens har återigen breddat sitt forskningsintresse och innefattar områden som datorstött samarbete och skrivande samt interaktiva programmeringsmiljöer.

Tillväxten hos institutionen har varit stadig. Vi brukar säga att antalet anställda fördubblas vart sjätte år men det är inte riktigt sant. (Extra poäng för den som svarar med två decimaler och felkalkyl.) I början var det sex anställda att jämföra med de 220 ± 10 som gäller 36 år senare. De årliga externa forskningsanslagen har ökat från några hundra tusen kr i början av 80-talet till dagens 100 miljoner kronor. I början gav vi fem kurser för ca 650 studenter. Idag ger vi ca 80 kurser till mer än 6 500 deltagare. Lärarkåren på en professor och tre assistenter har växt till 10 professorer, 22 lektorer, 3 forskarassistenter och 12 adjunkter.

Då kunde det ta en vecka att få resultat från en datorkörning. Idag sitter vi och trummar otåligt när vi måste vänta några sekunder. I början fick vi nöja oss med text och tabeller medan vi idag kan göra animerad tredimensionell representation av resultat.

Förhoppningen är att de följande tillbakablickarna skall ge en bild av Nadas bidrag till forskning och utbildning inom discipliner, där man oförtröttligt söker flytta fram gränser.


Tack Nada! /Sjuttiotusen elever!

Henrik Eriksson

Nej, något sådant telegram har institutionen inte mottagit. Kanske är våra kursdeltagare genom tiderna just så många, men alla är inte lika tacksamma. Som självgod F-teknolog på femtiotalet trodde jag mig veta att kursen i Numeriska beräkningsmetoder innehöll den smutsiga del av matematiken som matteinstitutionen höll sig för god att undervisa. Nubbekursen hade till och med en laboration, då man med en räknesnurra från Facit skulle lösa ett ekvationssystem. Fyra timmars snurrande sänkte ämnets status ytterligare.

Idag har Nada just inga statusproblem bland studenterna. I våra kursvärderingar beröms ofta hela institutionen, ibland just med orden "TACK NADA!". Alla våra kurser har nu labbar som kanske tar hundra timmar att göra. Och dom som klagar på omfattningen säger oftast att labbarna är bra men att kursen borde ge fler poäng. Någonting måste ha ändrats sedan min tid som teknolog. Någonting? Allting borde väl ha ändrats, så som tekniken har utvecklats på fyrtio år! Vi tittar väl in på en räkneövning år 1960, så att vi kan jämföra.

Så var det nittonhundrasextio

Tjugofem E-ettor skriver av en skäggig flinande ynglings kritklotter. "Det här är viktigt", säger han, "men det kommer inte på tentan." Tjugofem pennor stryker ett streck över hela avsnittet.

Ja, så var det då, men nu är allting ... precis likadant! För dom rena mattekurserna har egentligen ingenting ändrats. Både innehåll och undervisningsformer är i stort sett oförändrade. Men vi smutsiga matematiker på Nada har tvingats att hänga med i verklighetens störtlopp, och det har vi bara mått väl av. Jag själv och alla andra som jämfört vår undervisning i numerisk analys och datalogi med det som ges i övriga världen måste förvånas över att vi ligger så väl till. När det gäller nummegrundkursen har vi nog varit världsbäst i många år utan att riktigt veta om det!

Hur uppstår en bra kurs?

Har ni hört talas om tv-undervisningen i Linköping? När riksdagen 1967 beslutade att bygga den nya högskolan, slog man också fast att undervisningen skulle ske på modernaste sätt - alltså med tv. För varje ämne skulle dom bästa professorerna i landet fastställa en detaljerad kursplan, så kallad målanalys. Sedan skulle den bästa föreläsaren spelas in på videoband och utsändas i Linköping och på andra progressiva lärosäten som hängt upp tv skärmar i taket. All pedagogisk expertis intygade att det var så man skapade en riktigt bra kurs. Dom hade fel.

När Teknis organiserades om 1992 fick en liten grupp personer den omöjliga uppgiften att införa nya gemensamma basblockskurser. Man hoppades att den kurs som ersatte dom utrangerade kurserna skulle bli minst så bra som den bästa av dom gamla kurserna. Man hade fel.

En bra kurs består av hundratals bra enskildheter som kan ha vuxit fram under mycket lång tid. På nära håll har jag sett Gerd utveckla sin nummekurs nästan dagligen under ett helt liv. Storslagna reformer skapar inga sådana kurser. Det bästa är nog att varje år skära ner dåliga kurser och låta dom bra frodas. Det är så naturen arbetar!

Räcker det att ge bra kurser?

Det som jag tycker att institutionen kan vara mest stolt över är ändå inte att den erbjudit många bra kurser utan att vi har lyft blicken och sett utanför vårt ämnesområde. Intresset för att bli tutor för nybörjarna på datateknik är imponerande. Projektarbete kräver mycket lärarengagemang och det har vi under alla år haft lätt att uppbringa på Nada. Många teknologer vittnar om att det varit i projekten på Nada som dom utvecklats mest. Kanske inte som numeriker eller dataloger utan som människor.

Muntlig och skriftlig kommunikation hör också till det som Nada tagit på sig att ge studenterna träning i. Konstigt nog tycks det fungera bättre när uppgifterna ingår i en vanlig kurs än när man gör kommunikation till ett särskilt ämne. Eftersom muntlig och skriftlig förmåga är det näringslivsföreträdare sätter främst vore det bra om Nada tog ett ännu större ansvar för detta. Det finns ingen annan enhet på Teknis med vår kompetens och erfarenhet på området. Jag skulle gärna se en kurs som syftar till att deltagarna ska kunna delta i den allmänna debatten. För det krävs inte bara språklig förmåga utan också allmänbildning, alltså elementa i litteratur, konst, filosofi och politik.

På eget bevåg har jag tagit för vana att börja föreläsningar för E1 med fem minuters bildning. I våras var temat vetenskaplighet och det uppskattades oväntat mycket. På exjobbskurserna brukar prof Lansner ge en populär vetenskapslektion. Jag föreslår att Nada tar sej an även detta utbildningsmål! Men för att inte få en alltför vetenskaplig slagsida ska vi väl också ingjuta företagaranda i våra studenter. Laborationer och projekt bör vara sådana att teknologen ser sig själv som självständig problemlösare och ser teknistiden och nadakursen som det bästa sättet att lära sig det nödvändiga för att om ett par år starta ett eget företag.

Då tror jag att våra framtida studenter kommer att kunna enas om en hälsning:
"TACK NADA!"

MDI på Nada - en kort historia och en något längre

Kerstin Severinson Eklundh

Människa-datorinteraktion (MDI) är det nyaste ämnet på Nada. År 1997 infördes det som självständigt ämne i forskarutbildningen, och 1999 blev det ett eget exjobbsämne. Vi har alltså numera tre ämnen på institutionen, dvs. Nada borde egentligen heta Na- Da-Mdi. Därmed är institutionens kunskapsområde betydligt bredare än förut. MDI är ju mycket tvärvetenskapligt, och har starka inslag av både human- och designvetenskaper förutom datavetenskap.

Men ämnets historia på institutionen är betydligt längre. Omkring 1980 startades ett samarbete mellan några Nada-iter och Arbetslivscentrum, som ledde till projektet Utopia. Det handlade om införande av datorstöd i grafiskt yrkesarbete. Nada-gruppens uppgift var att skapa modeller för hur datorstödet borde vara utformat mot användaren vid bildbehandling och ombrytning. Gruppen bestod av Yngve (ansvarig och initiativtagare), Kerstin F. och Staffan R. Jag själv kom till Nada från FOA i Linköping i slutet av 1982, och inom kort fanns även Hans Marmolin (psykolog från FOA) med i forskargruppen.

Vid den här tiden gjorde de grafiska arbetsstationerna sitt inträde, vilket revolutionerade synen på interaktion med datorer. Att ha en rättvisande representation av sin uppgift på skärmen, samt att använda direktmanipulation (peka och klicka) i stället för kryptiska kommandospråk, blev ett paradigm som förkroppsligade metaforen av datorn som verktyg. Forskningsfrågorna om utformning av gränssnitt i grafiska system hopade sig, och ledde till ett eget projekt vid Nada (Dialogprojektet, 1983), som fokuserade på grafisk interaktion där även arkitektarbete fanns med som en tillämpning.

Namnet IPLab (Interaktions- och Presentationslaboratoriet) uppfanns omkring år 1985. Det faktum att vi redan hade en tvärvetenskapligt sammansatt forskningsgrupp gjorde att vi tidigt kvalificerade oss för deltagande i forskningsprogrammet MDA (Människor - datateknik - arbetsliv). MDA innebar samarbete mellan företrädare för teknik och humanvetenskap, och finansierades av dåvarande STU och Arbetsmiljöfonden. Vårt projekt utgick från erfarenheterna i Dialog och Utopia, och breddade studierna till att omfatta människa- datorinteraktion vid fyra relaterade aktiviteter: skrivande, grafisk formgivning, ritande och programmering.

Ämnet MDI var vid den här tiden fortfarande ganska nytt. Behovet av kommunikation bland forskare och andra företrädare för ämnet i Sverige ledde till att vi tog initiativ till bildandet av föreningen STIMDI 1986. På Tema Kommunikation i Linköping, dit jag fortsatte att pendla för att bli klar med min avhandling om datorstödd kommunikation 1986, sågs mitt ämne som tämligen exotiskt.

På 90-talet har forskningen i MDI på Nada vuxit kraftigt och blivit mer differentierad. Arbetet kring datorstött skrivande och läsning har fortsatt och har inneburit en ökad inriktning mot språkteknologi. Området datorst‰tt samarbete var tidigt föremål för våra studier, liksom interaktiva programmeringsmiljöer. I mitten av 90-talet skapades CID (Centrum för användarorienterad IT-design), ett NUTEK- stött kompetenscentrum som med sitt fokus på design och användbarhet i vissa avseenden kan sägas fortsätta den ''skandinaviska'' forskningstraditionen från Utopia. Forskningsområdena har här breddats från datorstöd i yrkesarbete till att omfatta även verktyg för lek, undervisning och konstnärliga uttrycksformer.

På senare tid har arbetet med forskarskolan HMI (Human-Machine Interaction) varit en angelägen uppgift för oss på IPLab och CID. Forskarskolan stöds av Stiftelsen för strategisk forskning, och omfattar fem institutioner i Linköping och Stockholm. HMI har inneburit att vi kunnat skapa ett antal nya doktorandkurser med MDI-inriktning. Det har också lett till rekrytering av flera duktiga doktorander, samt till etablerandet av nya forskningsteman. Ett exempel är interaktion mellan människor och intelligenta robotar, vilket vi studerar i samarbete med CAS (Centrum för autonoma system). Frågor som vi sysselsätter oss med i detta projekt är: hur ska användaren kommunicera med en robot som rör sig bland vanliga människor? Ska roboten ha mänskliga drag eller vill man snarare se den som en smart apparat? Vilken information behöver användaren om robotens tillstånd och dess kapacitet?

Det har hela tiden varit naturligt att försöka föra över forskningsresultaten till våra studenter på KTH och SU. Nada var i förhållande till andra institutioner mycket tidigt ute med undervisning i MDI. Redan 1983 inrättade vi en kurs i Dialogsystem för matematikerlinjens datalogigren på SU. En MDI-kurs för KTH-elever kom 1987, och därefter har både undervisningen och elevernas intresse för MDI ständigt vuxit. En populär kompetensinriktning i MDI finns nu för studenter på D och E, och intresset ökar även på andra KTH-program. Det stora antalet exjobb handledda av IPLabbare visar även att MDI- kunnande är en attraktiv merit på arbetsmarknaden för våra ingenjörer.

I takt med den otroligt snabba utvecklingen av IT-området har interaktionen människadator fått ökad uppmärksamhet i samhället. Detta märks bland annat i ett växande antal institut med tillämpad forskning om interaktiva media. Hit hör Interaktiva institutet, som är en ny samarbetspartner till CID och HMI. På KTH märks dessa inflytanden bland annat genom inrättandet av det nya programmet Medieteknik, där Nada och MDI-ämnet kommer att få en central roll. Vår kompetens inom området Kommunikation, där IPLab nu har en egen lektor, är också ett viktigt inslag i detta program.

I alla dessa sammanhang, där forskningsfrågorna ständigt omformuleras och tillämpningarna av vår forskning växer, finns en viktig styrka i den mångskiftande och tvärvetenskapliga sammansättningen av våra två forskningsgrupper.

Datalogi under andra milleniet

Stefan Arnborg

Före Nada....

Jag föddes inte på KTH, som jag lögnaktigt påstår på min hemsida, men inte långt därifrån. I Engelbrekts folkskola (1952-1956) var den främsta attraktionen det stora huset på andra sidan Valhallavägen, men byggena runtomkring var ännu mer lockande, vilket föranledde en del dispyter med min mor. Som realist och gymnasist i Östra Real 1956-1963 läste man en del science fiction (t ex Hannes Alfven), som ibland beskrev elektronhjärnor som på olika sätt ingrep i mänsklighetens angelägenheter. Mer stoff för fantasin gavs av att en alldeles riktig elektronhjärna dök upp i ett skyltfönster på Karlavägen, mittemot skolan. Det var en av Facits kopior av BESK -den första svenska matematikmaskinen, som den officiellt kallades. Dess enda minnesvärda kännetecken var dock den rörliga delen, som jag nu inser måste ha varit magnetbandsenheten.

Gryningen.(1963-1968)....

På KTH fick vi börja räkna redan från ettan (1963) - med räknestickor och Facits eminenta elektromekaniska räknesnurror. Vår suveräne föreläsare i numeriska beräkningsmetoder, nubbe, som jag senare förstod var Nadas grundare och som ännu senare var min handledare, hade en speciell förmåga att på föreläsningarna kl 8 på måndag morgon sudda med höger hand samtidigt som han skrev med vänster, och använda rasten till att byta ut alla krumelurerna på svarta tavlan. Nomografi var ett för civilingenjörer nödvändigt ämne där man lärde sig att ge ingenjörer verktyg att beräkna värden av olinjära funktioner - snabbt, rätt och grafiskt. Matematiken och fysiken var i mycket upplagd så att man kunde räkna ut komplicerade saker - antennegenskaper, kritiska varvtal, lyftkraften i en vinge, och annat, med nomografiska eller analytiska metoder som anpassats efter ett generellt ingenjörsproblem. I Nubben (institutionen försökte förgäves lansera namnet numme, vilket inte gick så länge jag var student) i ettan fick vi läsa och skriva program i algol. Dessa program visade hur man kunde beskriva en beräkning. Det var givetvis inte fråga om att också 'köra' programmen. Det enda de flesta av studenterna lade märke till var att programmen var på engelska: begin, end, for och goto förekom ofta. I den väl tummade studiehandboken, som alla fick i ettan och som uppenbarligen beskrev ett statiskt system av kurser i allehanda skojiga ämnen - brobyggnad, krigsfartygskonstruktion, husbyggnad, atomenergi, radioteknik (tänk om man kunde läsa dem alla!), fanns det också lite kluriga specialkurser: räkneautomatteori och siffermaskiners användning, t ex. Räkneautomatteori var en skojig kurs av det vanliga KTH-slaget. Roliga satser som säkert inte hade någon speciell användning - i varje fall verkade inte lärarna eller läroboksförfattarna tro det - vilket långt senare visade sig vara helt fel... Siffermaskiners användning var en annorlunda kurs - den enda labbkurs jag gjorde frivilligt på hela KTH. Man fick tre försök att få ett litet program att fungera. Institutionens sekreterare fick studentens vackra manus, stansade på hålremsa och skrev ut på papper. Efter några försök var programmet så vitt man kunde se felfritt. Då var det dags för Kalle Siklosi att ta programmet till gamla KTH på Drottninggatan, där BESKen stod - den fyllde en ganska stor maskinhall. Nu fungerade saker och ting inte alls som man hade hoppats - det måste vara nåt fel på BESK! Nåja, varje gång gick det att hitta ett fel som på något obegripligt sätt hade nästlat sig in i programmet, och sen kunde man försöka igen nästa vecka. Tyvärr räckte inte mina tre försök för att få programmet att fungera, men som tur var hade Kalle med sig en handstans och det råkade finnas plats på hålremsan att klämma in det räddande semikolonet... Programspråket var Algol. Året var 1966, och det var sista året BESK användes i grundutbildningen. Dess transistoriserade kopia TRASK skulle användas länge än på AFI i Frescati, men inte av mig. Flera Nada-iter hade aktivt medverkat till BESK-eran: Germund Dahlquist, Hans Riesel, Göran Kjellberg och Gunnar Hellström.

På egna ben ....

Att skriva ett rent binärt eller oktalt program var inte så svårt, bara man kunde manualen utan och innan. De nya datorerna, CDC 3200 och CDC 3600, hade för övrigt ett assemblyspråk som gjorde livet f‰r en programmerare mycket lättare. Algolprogrammen verkade mystiska däremot, dom var abstrakta på något sätt, och att någon lyckats skriva ett program som kunde översätta från Algol till maskinkod var utomordentligt imponerande. Det skulle snart yppas ett tillfälle att bita i detta problem: De två norska dataentusiasterna Kristen Nygård och Ole Johan Dahl hade hittat på ett språk som skulle kunna beskriva och simulera komplexa tekniska och administrativa system. FOA arbetade just med sådana frågor, och Jacob Palme var experten på framtidsfrågorna på FOA och blev mycket entusiastisk. Simula byggde på iden att programmet skulle vara så bra och lättläst att det, med lite kommentarer i källkoden, skulle vara självdokumenterande. Men kompilatorer var för stora och svåra att göra i Sverige (med undantaget Algol för BESK), så jag fick resa till det stora landet i väster för att arbeta med kompilatorteknik. Efter något års arbete i Oslo och några på FOA fanns det fungerande system för de i Stockholm viktigaste datortyperna, IBM S/360 och PDP-10 (dvs DEC system 10), som användes flitigt tills de hinkades ut med de sista datorerna av denna typ i mitten av 80-talet.

Ute i världen ...

Den första fasen av datalogisk teoriutveckling gjordes innan det fanns datorer i egentlig mening. Babbage och Ada (ca 1870) var helt okända ända till 1978 när programspråket Ada definierades, och ytterst få visste att Konrad Zuse i rask följd tillverkat en mekanisk, en elektromekanisk och en elektronisk dator före och under andra världskriget -- av allt att döma utan stöd från det allmänna och i en våning i Berlin, mitt under kriget under de perioder han lyckades undvika militärtjänst. Teoretiska resultat utan direktanknytning till datoranvändning fanns också: Alan Turing visade att stopproblemet var oavgjörbart, teorin för rekursiva, dvs beräkningsbara funktioner utvecklades, intressanta problem som Hilberts tionde visades olösbara, mm.

Den första vågen av inomvetenskaplig datalogisk forskning med anknytning till existerande och använda datorer kom under 50- och 60-talen. Hur får man en maskin att tänka? AI startades som disciplin av John McCarthy, neuronnätsdatorer av Rosenblatt. Hur översätter man program från ett språk som människan förstår till ett som datorn förstår? Kompilatorer och kompilatorteori utvecklades av Niklaus Wirth (Euler, Pascal), Richard Conway (rekursiv medåkning) och Brooker och Morris (kompilator-kompilator, steget mot lex/yacc/flex/bison). Hur ska ett bra programspråk se ut? Simula 67 definierades som ett objektorienterat programspråk 1967, Algol 68 1968 och Pascal 1968. Scheme fanns nästan (i form av Lisp) sedan 1956. Med Java kom Simulas ideer att vinna. De första megaprogrammen var dock inte kompilatorerna utan operativsystem och databashanterare som började dyka upp. Det var som vanligt en kamp mellan 'neat' och 'scruffy'. IBM och MIT lanserade system som skulle klara allt och som till slut hotade att falla ihop under tyngden av sin egen komplexitet. Dijkstra och Per Brinch Hansen försökte finna enkla arkitekturer som skulle klara det viktigaste under devisen 'small is beautiful'. Vem som vann? Det var ett källarprojekt på Bell Labs, som sanktionerades långt efter att det påbörjats(1969) under namnet UNIX. Den officiella motiveringen av projektet var länge att styra en fototypsättare, vilket man fortfarande kan se i de konstiga troff-filerna i UNIX. Problemet att få stora programsystem - IT-infrastrukturen - att bli hanterbar greppades i NATOS sommarkonferens Software Engineering 1968. I 30 år har man finputsat de ideer som kom fram där...

Hur skriver man program som räknar så fort som möjligt? Snabba algoritmer utvecklades av många matematiker, Cooley(FFT), Hoare(Quick-sort), dynamisk programmering (Bellman), Kalmanfilter (gissa vem). Liknande problem hade greppats tidigare, av Euklides, Gauss och andra, men mycket sporadiskt utanför den numeriska analysen. Analys och konstruktion av algoritmer blev en känd specialite med Don Knuths bokserie 'The art of computer programming', som han fortfarande arbetar med, och som gav oss TeX som spinoff. Det fanns inget skäl att tro att det inte fanns hur bra algoritmer som helst för de svåraste problemen (Blums resultat var totalt okända för praktiskt sinnade programutvecklare) och snart fick vi datalogins motsvarighet till evighetsmaskinen: den snabba algoritmen för kombinatorisk optimering som varje datalog med ambition någon gång trott sig nästan se eller nästan bevisat att den inte kan finnas. I och med Cooks upptäckt av de NP-kompletta problemen blev detta en verklig utmaning: Kan vi hitta en sådan snabb algoritm, kan vi också snabbt klara alla kombinatoriska beräkningsproblem, åtminstone asymptotiskt. Efter 30 år har ingen hittat en sådan algoritm, men inte heller ett bevis att ingen sådan algoritm finns. Det mest intressanta med 60-talets datalogi är nog att många av de ideer som idag finputsas av forskarna faktiskt skapades då, tom Internet, bitmappning, persondatorer, teorin för komplexitetsklasser som P och NP. Några undantag är digitala signaturer och kryptosystem med öppen nyckel, som fick vänta till början av 70-talet. Motsvarande saker som hänt på 90-talet är DNA- och kvantberäkningar - och där har man också idag långt kvar till praktisk användning. Men det skulle dröja till 90-talet innan datorerna på allvar tog plats i samhällets och människans vardagsrum. Det berodde lika mycket på maskinvaruutvecklingen som på datalogiutvecklingen.

Utanför Nada (1968-1982)....

Vad hände på Nada under 70-talet? Den första vågen av datalogi-avhandlingar, som handleddes av Germund under ämnesnamnet informationsbehandling, handlade om spektakulära och praktiskt relevanta problem (jag har något självsvåldigt tagit bort några som jag betraktar som numerisk analys): Metoder att hitta primtal och faktoriseringar (Hans Riesel), hur löser man konstruktionsproblem i programmeringssystem (Stefan Arnborg), hur gör man interaktiva program (Ingvar Aaro), hur analyserar man prestandaproblematiken i datorsystem (Juan Rodrigues), Optimering av Monte-Carloberäkningar (Ingmar Andreasson), bra slumptalsgenerering (Peter Pohl), hur ritar man vackra nomogram (Lars Kjelldahl), eller vackra formler (Kalle Siklosy), terrängmodeller i dator (Jacob Palme), simulering av stridsvagnsstrid (Sven-Erik Andersson), konstruktion av ett operativsystem för smådatorer(Lars-Erik Thorelli), hur får man igång ett kraschat datorsystem utan att tappa data(Bo Sand'en), algoritmer och prestandaberäkningar i formelbehandling (Yngve Sundblad), organisation av databashanterare för relationsdatabaser(Per Svensson), generering och simulering av mikroprogram(Magnus Persson), bildbehandling och transponering av bildmatriser(Jan-Olof Eklundh).

Själv jobbade jag på FOA under den här tiden, men blev flitigt anlitad som opponent på Nada. Detta visar förstås hur internationaliseringsbilden ändrats när ämnet blivit mer akademiskt: Idag försöker vi hitta opponenter från andra länder, då var den akademiska publiceringen och internationella exponeringen något som, med vissa undantag, kom efter disputationen. Den tidens rapporter var också pre-TeX - Handskrivna formler, konstiga referenslistor, egna formatknorrar och mycket annat. Men forskningen bedrevs också under helt andra villkor än idag, det var ju bara några år tidigare som rektor läxat upp två forskningsintresserade professorer med rådet: Om herrarna vill forska får ni naturligvis bekosta det själva! De externa finansiärerna var i allmänhet oberäkneliga då som nu, men det rörde sig om mycket mindre belopp. Datorerna hade också hemskt mycket mindre kapacitet än idag. Ett utdrag ur Lars-Erik Thorellis doktorsavhandling om ett tidsdelat operativsystem: " The system requires a minimum of 16K words of core and a disk as secondary memory. The system is now (April 1974) operational" (16K motsvarar 32KB RAM eftersom orden var 16 bitar långa).

På FOA fanns många intressanta problem att bita i, det kunde gälla försvarets infostruktur (som det kallas idag, 30 år senare och lika aktuellt), nya programvaruideer, databasproblematiken eller kombinatoriska algoritmer i operationsanalytiska tillämpningar.

Omkring 1980 skapades den första professuren i datalogi i Stockholm. Det var mycket
bråk kring detta, och till slut finansierades den med indragning av en av de fem matematikprofessurerna i Stockholm-- en källa till mycket akademiskt gnissel under många år. Själv jobbade jag på Philips vid det tillfället, och hade egentligen inget större intresse av att bli akademiker. Nåja, efter att den f‰rsta omgången sakkunniga blivit försenade ett eller två år hade Philips börjat gå dåligt och man visade inget större intresse för att komma över till standardarkitekturer i maskin- och programvara. Det fanns till och med inflytelserika personer som tyckte det var ganska onödigt att diskutera sådana problem med Microsoft och Oracle -- såna små skräpföretag (dom var faktiskt små då..) kan givetvis inte Philips få ut nåt av. Alla vet ju för övrigt att mikrodatorer är en övergående fluga och ska vi ha några ska det vara kompatibelt med Philips datorer.. UNIX fanns det många skäl att avvisa, det viktigaste var dock: inte uppfunnet här. Att vara en sån där professor under några år vore kanske inte så dumt ...

Nada igen (1982-2000)....

Men vad ska man hitt på? Plötsligt var man inte en individuell fri tänkare, utan det förväntades att man skulle specialisera sig våldsamt, försvara sitt ämne i alla omöjliga
sammanhang, lösa industrins problem utan att vara där, och helst bilda en skola där alla höll på med ungefär samma sak. Vid den här tiden utkristalliserades mycket av Nadas nuvarande struktur, och de andra datainstitutionerna ADB (numera DSV) och TTDS (teleinformatik) hade bildats. Numerikerna blev ett eget gäng, Yngve Sundblad skapade början till människa-dator-verksamheten, Jan-Olof Eklundh datorseende. Anders Lansner hade redan börjat undersöka hjärnans och datorns inbördes relationer.

Mina första doktorander, Erik Tiden och Björn Lisper, var intresserade av ingenjörstillämpningar av klassiskt slag: Hur vet man att ett system fungerar, hur uppskattar man en konstruktions prestanda? Rob Schreiber var en inspirerande källa till ideer om systoliska beräkningar, men vi gled snabbt in på allmännare, svårare och kanske mer svårtillämpliga saker, Erik Tiden på lösning av unifieringsproblem och Björn Lisper på matematiken för avbildning av distribuerade beräkningar på rum-tidsgitter. Senare disputerade också Parosh Abdullah inom det området, och nu, när industrin fått upp ögonen, arbetar Karl Meinke inom formella metoder, som det nu kallas. Den viktigaste principen för akademiskt arbete är att ge industrin det den behöver, inte något som nån där tror att industrin behöver. Per Olof Fjällström studerade numeisksymboliska problem i området geometriska produktmodeller. Johan Schubert undersökte osäkerhetsproblematiken i militära operationer och ubåtsjakt. Hantering av osäkerhet i datorer är fortfarande intressant, framför allt med den starka kopplingen till osäkerhetsproblematiken i filosofin, som faktiskt började studeras för mer än två millenier sedan, av Aristoteles efter en muntlig tradition från hans akademiske farfar Sokrates.

Länken mellan ingenjörsvärlden och datorn kanske ligger i formelbehandling? Det lustiga med datoriserad symbolisk matematik är att man lätt får väldigt långa svar, ännu lustigare är att datorn kanske kan hålla reda på sånt som ingen egentligen har gjort manuellt, som exakt lösning av stora algebraiska system och beräkningar i algebraiska utvidgningar. Detta område ledde till aktiviteter med Ian Cohen (mekanik) och James Davenport, som var här i ett halvår. Lars Langemyr, Joachim Hollman och Henry Feng disputerade på problem kring lösning och karakterisering av algebraiska system. Andrzej Proskurowski kom till Nada på sabbatsår 1983, och det resulterade i många pek om trädstrukturerade grafer, ett ämne som Jens Lagergren senare disputerade på. Johan Håstad, som jag träffade på en konferens 1983, disputerade på MIT och kom till Nada 1988, med en rejäl meritlista och mycket internationella kontakter. Nu började vi se avhandlingar i de nya specialiteterna kretskomplexitet (Mikael Goldmann, Christer Berg, Staffan Ulfberg), approximationsteori(Viggo Kann), kryptografi (Mats Näslund). Med nästa våg av disputationer kommer också en ny generation av handledare, Jens och Viggo, och nya specialiteter som bioinformatik och språkteknologi. De andra datalogigrupperna på Nada har lagom till millenieskiftet blivit förstärkta med professorerna Henrik Christensen, Yngve Sundblad och Anders Lansner. Interaktiv och grafisk datalogi har breddats med ett nytt ämne och ny professor, Kerstin Severinsson-Eklundh. Grattis Nada!

Ja, detta var något av vad datalogerna på Nada gjorde under andra milleniet, eller snarare dess sista 37 år. Jag har inte sagt så mycket om vad som gjorts i Joes, Anders och Yngves grupper, och inte gett några detaljer om Johan Håstads verksamhet. Men det väntar sig nog ingen, dom har klarat sig bra på egen hand och skulle jag tala om vad dom gjort skulle dom bara komma med invändningar. !ven teorigruppen har kommit in på praktiska frågor, med språkteknologi, geoinformatik (Per Svensson), biologisk och medicinsk informatik. Och ett utpräglat teoretiskt ämne, kryptografi, har plötsligt blivit riktigt hett för praktiker, förutom att flera av våra teoretiska skapelser fått praktisk användning bl a i bioinformatiken.

Vad händer sen ....

Det första milleniets inträde karakteriserades av en akademisk stiltje, eller kanske snarare en andhämtning inför den antoninska guldåldern. Man vårdade arvet från den grekiska guldåldern, och det är märkligt att så mycket överlevde som vi faktiskt har kvar därifrån. Det andra milleniet började med att universalgeniet Avicenna (Abu Ali al'Husain ibn Abdullah ibn Sina), vid 20 års ålder, lade fram första upplagan av en encyclopedi över tidens vetande i logik, matematik, fysik, medicin och metafysik, till vilka discipliner han gett uppmärksammade bidrag i tonåren. Men encyklopedin bestod ändå mest av stoff som uppfunnits i antiken, 1400 till 800 år tidigare, från Aristoteles och med slutklämmen i Galenos medicinska system. Avicennas verk innehåller den mest inflytelserika boken i medicin, och den bästa under 500 år. Vid det näst senaste sekelskiftet kunde världens bästa matematiker Hilbert tala om vad matematiken skulle syssla med de kommande hundra åren, och dessutom ge några lämpliga övningsproblem som visade sig räcka hyfsat exakt i hundra år (fast Riemannhypotesen blev inte helt färdigbehandlad). Så är det inte idag. Kunskapen har ändrat karaktär när inte ens de största snillena behärskar mer än en bråkdel av världens vetande och än mindre anar vad som ligger runt hörnet. Det är svårt att säga om det är lättare att avföra P?=NP än Riemannhypotesen från dagordningen. Men ganska säkert är att datorn och människan får mycket med varandra att göra under detta millenium. Anders Sandberg, Sans, presenterade nyligen sina transhumanistiska ideer i den riktningen i Metro, och mer står att läsa på hans hemsida.

Datorutvecklingen på Nada som jag sett den

Yngve Sundblad

Den datormiljö vi har idag är baserad på en makalös kontinuerlig exponentiell tillväxt i prestanda som givit ett antal kvalitativa hopp. Jag har haft förmånen få följa större delen av denna utvecklingen (hela institutionens) och ger här några centrala exempel på sådana hopp, så som de på verkade NADAs verksamhet.

När jag först, som teknolog 1963, fick kontakt med den då nygrundade institutionens för Numerisk Analys beräkningsresurser var det i form av 24 slamrande räknesnurror. Vi löste linjära ekvationssystem med Crouts metod och höll på tills lösningen stämde (med 6 decimaler).

Att det fanns datorer för att utföra beräkningar fick vi veta indirekt genom "torrsim", där vi beskrev beräkningar i ett formellt språk, Algol, programspråkens Latin, som sas kunna översättas automatiskt till kod som styrde datorberäkningar.

Ett par år senare fick vi, i en valfri kurs i Siffermaskiners användning, skriva algolprogram på blanketter, från vilka assistenten stansade hålremsa och körde programmet på en dator någonstans varefter vi nästa gång fick tillbaka en skrivarutskrift.

Detta "någonstans" var FACIT EDB på Sveavägen, som jag fick direktkontakt med när ja 1965 gjorde exjobb (i Teoretisk Fysik). Jag stansade mitt algolprogram själv, väntade på mitt pass, typiskt någon kvart, ofta mitt i natten, då jag ensam rådde om datorn. Detta var en tidig erfarenhet av direkt dator-människa-kommunikation genom att datorn hade en högtalare där det ljöd olika beroende på vilken maskininstruktion som exekverades. Man kunde höra om samma ljudmönster upprepades många gånger och bryta när det uppenbart var en oändlig slinga.

Denna dator var baserad på den enastående utvecklingen i Sverige av datorer under 1950-talet, från relämaskinen BARK via BESK, snabbast i världen 1953, till TRASK (TRAnsistoriserad BESK) mfl, där NADAs emeritusprofessor, Germund Dahlquist, var mycket tidig metod- och programutvecklare.

Sedan kom en mörk period med överdriven tro på centraliserade lösningar, med "sluten" verksamhet av "överstepräster" långt från användarna, i vårt fall en gemensam stordator för KTH, SU, KI och FOA. Datorn hade hela 512 kbyte primärminne och var när den installerades den största forskningsdatorn i norra Europa. Jag, som ansvarig för att alla våra teknologer från 1970 fick köra datorprogram i grundkurserna, fick organisera en industri, där ett antal hålkortslådor (NA hade ett olidligt slamrande stansrum för teknologerna) transporterades till datacentralfilialen på KTH och tillbaka med radskrivarutskrifter dan efter.

Redan 1970 kom nästa hopp i form av interaktiv datoranvändning i form av en minidator med 8 teletype-terminaler, där vi lyckades ge alla teknologer erfarenhet av att interaktivt skriva och köra BASIC-program. Det stora interaktionshoppet kom 1974 när vi fick tillgång till en riktigt kraftfull interaktiv dator, DEC-10, som visserligen stod på datacentralen men var direkt tillgänglig via textterminaler. Smekmånaden när den var ny och vi körde gratis levde jag mer eller mindre i symbios med den och lärde mig att Lisp är en fantastisk interaktiv och inkrementell programmeringsmiljö, att datorer kan slå mig i schack mm.

I slutet av 1970-talet blev det ohållbart med all datorkraft centraliserad och NADA (namnändring 1979) genomdrev en massiv satning på egna DEC-dialogdatorer. I början av 1980-talet kunde vi genom "Tro, hopp och kärlek", datorerna Nadja, Vera och Venus, erbjuda alla teknologer och anställda dialogdatoranvändning och hålkortshanteringen var helt borta.

Det tredje hoppet var de grafiska gränssnitten, datormusens och bitmappade rastergrafikskärmens genombrott, hos oss kring 1984, med arbetsstationer som Perq, Xerox och Sun samtidigt med persondatorversionen Macintosh. De erbjöd ett helt nytt sätt att arbeta som man till och med kunde uppleva som lustfyllt.

NADA var tidigt ute, de två första (128k) Mac:arna togs hem från USA redan i april 1984 (två månader efter lanseringen) och hösten 1985 hade vi totalt 44 Mac:ar i två elevsalar (främst för den nystartade Datatekniklinjens och SU-datalogernmas utbildning i utveckling av god människa-dator-interaktion) och på anställdas bord. Parallellt utvecklades parken av Sun Unix-datorer och när det var dags att ersätta DEC-datorerna (under mellantiden kompletterade med ett par Unix-datorer) med modernaredialogdatorkraft var det naturligt med en massiv satning på Sun-datorer i grundutbildningen 1989.

Nu är vi framme vid 1990-talet och det fjärde hoppet - Internet, speciellt webben. För många av oss hade datorpost blivit oumbärlig, inte minst i internationella kontakter, redan under 1980-talet men att alla i industrialiserade världen skulle få (och de flesta ta) denna möjlighet inom några år trodde vi inte. WWW såg jag första gången 1991 på en NeXT-dator, i en implementation av uppfinnaren själv, tim Berners-Lee på CERN. Idén användes till att direkt kunna få fram referenser i vetenskapliga uppsatser. Med den genialt enkla läsaren, Marc Andriessen's Mosaic / Netscape, och politisk och medial muppmärksamhet blev webben snabbt mångas verktyg. På NADA används ju webbpresentation flitigt och av de flesta i såväl grundutbildning och forskning.

Vad det femte hoppet är eller blir vet jag inte säkert. Möjligheten att använda datorer för att blanda uttryck och interaktionsformer och kommunikation i många media är ju en spännande utveckling. Virtual-reality är en annan, på NADA illustrerad av den spektakulära VR-kuben, först i världen med projektion utifrån på alla sex ytorna.

Till och med på NA var datorn en exklusivitet på 1960-talet, nu är den central i all verksamhet på högskolan. Användningen har utvecklas, också på NADA, från i första hand beräkningar till hantering, analys och interaktion med typograferad text, grafik, bilder, video, musik, annat ljud, animeringar, mm mm. Nu finns det över 700 datorer för institutionens användare betjänade av ett 70-tal serverdatorer, som hanterar webb, datorpost, filarkiv mm mm.

Numerisk analys på KTH - från stabilitet till rörlighet

Björn Engquist

Kanske det mest fundamentala begreppet inom numerisk analys är stabilitet. Det är en egenskap som är nödvändig för att en numerisk algoritm skall vara användbar och grunden för konvergensteori.

De centrala delarna delarna av stabilitetsteorin för differentialekvationer utvecklades i Sverige vid KTH under senare delen av 50-talet. Denna unika och teoretiskt djupa insats inom numerisk analys utfördes av de unga forskarna Germund Dahlquist och Heinz- Otto Kreiss. Forskningen resulterade i ett antal banbrytande papper och på köpet också deras disputationer 1959 och 1960.

Germund presenterade 1956 de viktiga nödvändiga och tillräckliga villkoren för stabilitet och konvergens av linjära flerstegsmetoder för ordinära differentialekvationer. Det resultatet har legat bakom stora delar av den fortsatta utvecklingen av stabilitetsanalys i allmänhet och utvecklingen av numeriska metoder för ordinära differentialekvationer i synnerhet.

Heinz klargjorde vilken typ av stabilitet som var viktig vid numerisk approximation av partiella differentialekvationer. Hans teori behandlade både differential och differensekvationer och också i detta fall har resultaten varit grunden för en omfattande teoretisk och praktisk utveckling under de kommande årtiondena.

Germund kom efter denna tid att stanna kvar vid KTH och startade samt utvecklade och ledde institutionen under många år. Ett stort antal av dagens aktiva numeriker vid våra universitet studerade för Germund under 60 och 70-talen då KTH var ett viktigt internationellt centrum för numerisk forskning. Grundutbildningen inom numerisk analys vid KTH har kontinuerligt utvecklats från starten redan innan institutionen bildades till i dag.

Efter en andningspaus under senare delen av 80-talet ökade aktiviteten åter kraftigt inom numerisk forskning på 90-talet. Germund fortsatte sitt arbete som emeritus och Heinz återvände till institutionen på deltid. Germunds tjänst övertogs av Björn Engquist och ett antal nya lektorer initierade spännande forskningsprojekt. Den lite tillspetsade rubriken skall inte tolkas som att pionjärerna på 50 och 60-talen inte var flexibla och engagerade i tillämpningar. ämnets grundläggande frågeställningar var dock mer centrala för 40 år sedan. I dag är många fundamentala numeriska problem lösta och nya tillämpningsområden samt nya hård och mjukvaruredskap kräver ökad rörlighet i forskning och utbildning. Numerisk analysgruppen försöker att möta utmaningen genom att aktivt delta i den internationella utvecklingen och genom att via centra som PSCI, PDC och PDCTTN samarbeta med industri och andra akademiska discipliner.