Tölvu vísindi

frá Wikipedia, ókeypis alfræðiorðabókinni
Fara í siglingar Fara í leit

Tölvunarfræði eru vísindi kerfisbundinnar framsetningar, geymslu, vinnslu og miðlunar upplýsinga , með sérstaka áherslu á sjálfvirka vinnslu með stafrænum tölvum . [1] Þetta eru grunn- og formvísindi auk verkfræðigreinar . [2]

Saga tölvunarfræði

uppruna

Gottfried Wilhelm Leibniz hafði þegar tekist á við táknræna framsetningu . Ásamt Boolean algebru , sem George Boole vann fyrst árið 1847, mynda þær mikilvægustu stærðfræðilegu undirstöður seinna tölvukerfa. Árið 1937 birti Alan Turing verk sitt um Computable Numbers with Application to the Decision Problem , þar sem Turing -vélin sem kennd er við hann var kynnt, stærðfræðileg vélalíkan sem hefur mikla þýðingu fyrir fræðilega tölvunarfræði til þessa dags. Hingað til er hugtakið fyrirsjáanleika byggt á alhliða líkönum eins og Turing vélinni og margbreytileikakenningunni , sem byrjaði að þróast á sjötta áratugnum. Hingað til hefur fyrirsjáanleiki verið byggður á afbrigðum af þessum gerðum.

siðfræði

Orðið tölvunarfræði var búið til með því að bæta viðskeytinu -ik við rót upplýsinga . Hugtakið tölvunarfræði var myntað af Karl Steinbuch og má rekja það aftur til fyrsta rits hans „Computer Science: Automatic Information Processing“ frá 1957, sem hann gaf út hjá Standard Elektrik AG (SEG). [3] [4] Til að undirstrika mikilvægi sjálfvirkni eða stærðfræði fyrir tölvunarfræði eru tölvunarfræði stundum gefin út sem ferðatöskuorð sem samanstendur af upplýsingum og sjálfvirkni eða upplýsingum og stærðfræði . [5]

Eftir alþjóðlegt samkomurit í Dresden 26. febrúar 1968, festu tölvunarfræði sig í sessi sem nafn á vísindum sem byggjast á frönsku (informatique) og rússnesku fyrirsætunni (Информатика) á þýskumælandi svæðinu. [6] [7] Í júlí sama ár var hugtakið tölvunarfræði notað í fyrsta skipti sem þýska nafnið á nýju efni í ræðu Berlínar eftir Gerhard Stoltenberg ráðherra. [8] Þó að hugtakið tölvunarfræði er algengt í enskumælandi heimi, þýska nemur tölvunarfræði gat ekki koma sér. Hins vegar er hugtakið upplýsingatækni notað á ensku um tiltekna hluta hagnýtrar upplýsingatækni - til dæmis þegar um er að ræða lífupplýsingatækni eða jarðupplýsingatækni . Þegar kemur að þýðingum á ensku er hugtakið upplýsingatækni stundum valið fremur en tölvunarfræði í þýskumælandi löndum. [9]

Þróun tölvunarfræði í vísindi

Í Þýskalandi fer upphaf tölvunarfræði aftur til Institute for Practical Mathematics (IPM) Tækniháskólans í Darmstadt (TH Darmstadt) , sem stærðfræðingurinn Alwin Walther byggði upp síðan 1928. [10] Árið 1956 gátu fyrstu nemendurnir í Darmstadt rafræna reiknivélinni tekist á við vandamál reiknivéla. Á sama tíma var boðið upp á fyrstu forritunarfyrirlestra og starfsnám í TH Darmstadt. Vegna orðsporsins sem TH Darmstadt hafði á sínum tíma í tölvurannsóknum, fór fyrsta þingið á þýskumælandi svæðinu um tölvunarfræði ( rafrænar reiknivélar og upplýsingavinnsla ) með alþjóðlegri þátttöku fram í október 1955 í TH Darmstadt.

Á sjötta áratugnum skorti Þýskaland samkeppnishæfni á sviði vinnslu gagna (DV). Til að vinna gegn þessu samþykkti sambandsnefnd vísindarannsókna áætlunina til eflingar rannsókna og þróunar á sviði vinnslu gagna fyrir opinber verkefni 26. apríl 1967. Hin svokallaða „Technical Advisory Board for Data Processing“ sá um framkvæmdina og samanstóð aðallega af fulltrúum frá háskólum og rannsóknarstofnunum utan háskóla. Á sjöunda fundi ráðgjafarnefndarinnar 15. nóvember 1967 gaf Karl Ganzhorn , sem var ábyrgur fyrir rannsóknum og þróun hjá IBM í Þýskalandi á þessum tíma, merki um vandamál iðnaðarins við að finna hæft starfsfólk. Forstjóri Institute for Message Processing í TH Darmstadt, Robert Piloty , benti á að þýsku háskólarnir bera ábyrgð á þjálfun hæfra starfsmanna. Í kjölfarið var nefnd „IT stólar og þjálfun“ skipuð. Piloty tók stólinn. Nefndin mótaði tilmæli um þjálfun tölvunarfræðinga, sem gerði ráð fyrir að komið yrði á fót námskeiði í tölvunarfræði við nokkra háskóla og tækniskóla. [10]

Árið 1967 bauð tækniháskólinn í München upp á námskeið í upplýsingavinnslu sem hluti af stærðfræðinámskeiði að frumkvæði Friedrich Ludwig Bauer . [10] [11] [12] Árið 1968 kynnti TH Darmstadt fyrsta tölvunarfræðinámskeiðið. Árið 1969 fylgdi námskeiðið „gagnatækni (tæknileg upplýsingatækni)“ og árið 1970 stærðfræðinámskeið, sem lauk með prófinu „útskrifaður verkfræðingur í stærðfræði með áherslu á tölvunarfræði“. [10] Þann 1. september 1969 byrjaði Tækniháskólinn í Dresden fyrsta háskólann í DDR með þjálfun Dipl.-Ing. til upplýsingavinnslu. Einnig árið 1969 hóf Furtwangen verkfræðiskólinn (síðar Furtwangen University of Applied Sciences ) þjálfun, enn kölluð upplýsingatækni hér. [13] Á vetrarönn 1969/70 var háskólinn í Karlsruhe (nú Karlsruhe tæknistofnun ) fyrsti þýski háskólinn til að bjóða upp á gráðu í tölvunarfræði sem leiðir til gráðu í tölvunarfræði. [14]

Johannes Kepler háskólinn (JKU) Linz byrjaði á vetrarönn 1969/70 sem fyrsti austurríski háskólinn til að sérhæfa sig í tölvunarfræði og mennta sig sem útskrifaður verkfræðingur. [15] Tækniháskólinn í Vín fylgdi í kjölfarið á vetrarönninni 1970/71. [16] Nokkrum árum síðar stofnuðu fyrstu deildir tölvunarfræði en höfðu þegar frá 1962 við Purdue háskólann staðist tölvunarfræðideild.

Í enskumælandi löndum er vísað til einstakra vísinda sem tölvunarfræði . Fyrsta háskólaprófið var Diploma in Numerical Analysis and Automatic Computing frá University of Cambridge . Eins árs framhaldsnám gæti hafist í október 1953. [17] [18]

Samtök

Gesellschaft für Informatik (GI) var stofnað árið 1969 og er stærsta sérfræðistofnun í þýskumælandi löndum. Tvö stóru bandarísku samtökin, Association for Computing Machinery (ACM) síðan 1947 og Institute of Electrical and Electronics Engineers (IEEE) síðan 1963, hafa sérstakt alþjóðlegt vægi. Vettvangur tölvunarfræðinga fyrir frið og samfélagslega ábyrgð . Samtök fyrir tölvuvélar veita Turing -verðlaunin árlega, sem eru í grófum dráttum sambærileg við Nóbelsverðlaunin hvað varðar stöðu í tölvunarfræði.

Reiknivélar - forverar tölvunnar

Japanskur soroban

Líta má á viðleitni til að þróa tvenns konar vélar sem fyrstu forverana í tölvunarfræði umfram stærðfræði: þær sem hægt er að framkvæma eða einfalda stærðfræðilega útreikninga („ reiknivélar “) og þær sem hægt er að draga rökréttar ályktanir af. og athuguð rök geta verið (" rökréttar vélar "). Sem einföld reiknibúnaður veittu abacus og síðar skyggnureglan ómetanlega þjónustu. Árið 1641 smíðaði Blaise Pascal vélræna reiknivél sem gæti framkvæmt viðbætur og frádrátt, þar með talið millifærslur . Aðeins seinna, Gottfried Wilhelm Leibniz fram reikniútbúnaði vél sem gæti gert allar fjórar helstu reikniaðgerðum. Þessar vélar eru byggðar á samtvinnandi gír. Skref í átt að meiri sveigjanleika var tekið frá 1838 af Charles Babbage , sem miðaði að því að stjórna reikniaðgerðum með því að nota götukort . Aðeins Herman Hollerith gat útfært þessa hugmynd með hagnaði þökk sé tækniframförum frá 1886 og áfram. Talningavélar hans byggðar á götukortum voru meðal annars notaðar til að meta manntal í Bandaríkjunum.

Saga rökréttra véla er oft rakin aftur til 13. aldar og rakin aftur til Ramon Llull . Jafnvel þó að útreikningar á diskalíkum uppbyggingum hans, þar sem nokkrir diskar sem snúast hver gegn öðrum gætu táknað mismunandi samsetningar hugtaka, væru ekki vélrænt mjög flóknir, þá var hann líklega sá sem lét hugmyndina um rökrétta vél vita. Burtséð frá þessum mjög snemma forveri seinkar sögu rökfræðilegra véla enn meira en reiknivéla: rennilíkan tæki eftir þriðja Stanhope jarl , sem á heiðurinn af því að athuga réttmæti kennslufræði (í aristotelískum skilningi), frá 1777. Raunveruleg „vél“ hefur verið afhent í fyrsta sinn í formi „rökrétta píanósins“ eftir Jevons seint á 19. öld. Aðeins örlítið síðar var vélbúnaði skipt út fyrir rafmagns- og rafrásir. Rökréttu vélarnar náðu hámarki á fjórða og fimmta áratugnum, til dæmis með vélunum frá enska framleiðandanum Ferranti . Með þróun alhliða stafrænna tölvu - öfugt við reiknivélar - lauk sögu sjálfstæðra rökréttra véla skyndilega þar sem verkefnin sem þau unnu og leystu voru í auknum mæli innleidd í hugbúnaði á einmitt þeim tölvum sem eiga forveri þeirra að vélbúnaði.

Þróun nútíma reiknivéla

Ein af fyrstu stærri reiknivélunum er Z1 frá 1937, sem Konrad Zuse bjó til og vinnur enn eingöngu vélrænt. Á þeim tíma voru töfluvélar ráðandi tækni í stórum stjórnsýslum, en Zuse bjóst við notkun í verkfræðigeiranum. Fjórum árum síðar, Zuse framkvæmda hugmynd hans með rafmagns liða : The z3 frá 1941 var heimurinn er fyrsta fullkomlega hagnýtur, frjálst forritanlegur stafræna tölvan [19] til að aðgreina stjórn og gögn minningar frá inntak / úttak borðinu.

Nokkru síðar var tilraunum til að smíða reiknivélar til að sprunga leynileg þýsk skilaboð ýtt áfram með miklum árangri undir stjórn Alan Turing ( Turingbombe ) og Thomas Flowers (Colossus). Á sama tíma þróaði Howard Aiken Mark I (1944), fyrstu dagskrárstýrðu gengistölvuna í Bandaríkjunum, þar sem frekari þróun var komin verulega áleiðis. Frekari gengistölvur voru smíðaðar á Bell rannsóknarstofunum (George Stibitz). Atanasoff-Berry tölvan er talin vera fyrsta rörtölvan. Einn af aðalleikurunum hér er John von Neumann en eftir honum er arkitektur Von Neumann , sem enn er mikilvægur í dag, nefndur. Árið 1946 var rörtölvan ENIAC þróuð , árið 1949 var EDSAC smíðað - með fyrstu útfærslu Von Neumann arkitektúrsins.

Upp úr 1948 byrjaði IBM að þróa tölvur og varð markaðsleiðandi innan tíu ára. Tímamót í sögu fyrirtækisins voru kynning á System / 360 árið 1964. Aðalraminn er forfaðir Z-Systems aðalramma í dag og fylgdi IBM 700/7000 röðinni . Strax árið 1959 var IBM 1401, tölva fyrir meðalstór fyrirtæki, kynnt sem oft er nefnd Ford Model T tölvuiðnaðarins vegna sölutölna. Með þróun smára tækni og örgjörvi tækni urðu tölvur æ öflugri og ódýrari. Árið 1982 opnaði Commodore fyrirtækið loks fjöldamarkaðinn með C64, sérstaklega fyrir heimanotendur, en einnig langt víðar.

Forritunarmál

Uppfinningin um „sjálfvirka forritun“ eftir Heinz Rutishauser (1951) var mikilvæg fyrir þróun forritunarmála. Árið 1956 lýsti Noam Chomsky stigveldi formlegra málfræði sem formmál og sérstök vélalíkön samsvara. Þessar formgerðir urðu mjög mikilvægar fyrir þróun forritunarmála . Mikilvægir áfangar voru þróun Fortran (úr ensku: "FORmula TRANslation", formúluþýðing; fyrsta forritunarmál á háu stigi , 1957), ALGOL (úr ensku: "ALGOrithmic Language", reiknirit tungumál; skipulagt / mikilvægt ; 1958/1960/ 1968), Lisp (úr ensku: "LISt Processing", vinnsla lista; hagnýtur , 1959), COBOL (úr ensku: "COmmon Business Orientated Language", forritunarmál fyrir auglýsing, 1959), Smalltalk ( hlutbundið , 1971 ), Prolog ( rökrétt , 1972) og SQL ( Tengslagagnagrunnur , 1976). Sum þessara tungumála standa fyrir dæmigerðar forritunarhugmyndir hvers tíma. Önnur forritunarmál sem hafa verið í notkun í langan tíma eru BASIC (síðan 1960), C (síðan 1970), Pascal (síðan 1971), Objective-C ( hlutbundin , 1984), C ++ (object- stillt, almennt , margvíslegt, frá 1985), Java (hlutbundið, síðan 1995) og C # (hlutbundið, um 2000). Tungumál og breytingum á hugmyndafræði fylgdu ákaflega með tölvuvísindarannsóknum.

Eins og með önnur vísindi, þá er einnig vaxandi tilhneiging til sérhæfingar.

Tölvugreinar

Alan Turing minnisstytta í Sackville Park í Manchester

Tölvunarfræði skiptist í undirsvið fræðilegra tölvunarfræði , hagnýtra tölvunarfræði og tæknilegra tölvunarfræði .

Notkun tölvunarfræði á hinum ýmsu sviðum daglegs lífs sem og á öðrum sérsviðum, svo sem upplýsingatækni fyrirtækja , landfræðilegri upplýsingatækni og læknisfræðilegri upplýsingatækni, er kölluð beitt upplýsingatækni . Áhrif á samfélagið eru einnig skoðuð á þverfaglegan hátt.

Tölvunarfræði arkitektúr

Fræðileg tölvunarfræði myndar fræðilegan grundvöll fyrir önnur undirsvið. Það veitir grundvallarþekkingu fyrir úrlausnarhæfni vandamála, flokkun á flækjustigi þeirra og fyrirmynd sjálfvirkra og formlegra tungumála .

Greinarnar hagnýtar og tæknilegar upplýsingatækni eru byggðar á þessum niðurstöðum. Þú glímir við miðlæg vandamál við upplýsingavinnslu og leitar að viðeigandi lausnum.

Niðurstöðurnar eru að lokum notaðar í hagnýtri tölvunarfræði. Hægt er að úthluta vélbúnaði og hugbúnaðarútgáfum á þetta svæði og þar með stóran hluta af viðskiptalegum upplýsingamarkaði. Þverfaglegu viðfangsefnin rannsaka einnig hvernig upplýsingatækni getur leyst vandamál á öðrum sviðum vísinda, svo sem þróun staðbundinna gagnagrunna fyrir landafræði , en einnig viðskipti eða lífupplýsingar .

Fræðileg tölvunarfræði

Sem burðarás í tölvunarfræði fjallar sviðið fræðilega tölvunarfræði um abstrakt og stærðfræðimiðaða þætti vísinda. Svæðið er breitt og fjallar um efni frá fræðilegum málvísindum ( kenning um formmál eða sjálfvirk kenning ), útreikningshæfni og margbreytileikakenningu . Markmið þessara undirsvæða er að veita yfirgripsmikil svör við grundvallarspurningum eins og „Hvað er hægt að reikna út?“ Og „Hversu vel / skilvirkt er hægt að reikna eitthvað út?“.

Sjálfvirk kenning og formleg tungumál

1-band Turing vél

Í tölvunarfræði eru sjálfvirkni „ímyndaðar vélar“ sem hegða sér samkvæmt ákveðnum reglum. Endanleg sjálfvirkni hefur endanlegt sett af innri ástandi. Það les með „inntaksorði“ staf fyrir staf og framkvæmir ástandsskipti fyrir hverja staf. Að auki getur það sent frá sér „framleiðslutákn“ við hverja umskipti í ríkinu. Þegar inntakinu er lokið getur vélin samþykkt eða hafnað inntaksorði.

Hin formlega mál nálgun á uppruna sinn í málvísindum og hentar því vel til að lýsa forritunarmálum. Hins vegar er einnig hægt að lýsa formmálum með vélalíkönum, þar sem hægt er að líta á sett allra orða sem vél samþykkir sem formlegt tungumál.

Flóknari líkön hafa minni, til dæmis þrýstivélar eða Turing-vélina, sem samkvæmt ritgerð Church-Turing getur endurskapað allar aðgerðir sem menn geta reiknað út.

Reiknileikakenning

Í samhengi við reiknileikakenninguna rannsaka fræðileg tölvunarfræði hvaða vandamál er hægt að leysa með hvaða vélum. Tölvulíkan eða forritunarmál er kallað Turing-complete ef hægt er að líkja eftir alhliða Turing vél . Allar tölvur sem notaðar eru í dag og flest forritunarmál eru Turing-heill, sem þýðir að þú getur notað þær til að leysa sömu verkefni. Aðrar reiknilíkön eins og lambda stærðfræðigreiningu , meðan forrit , n-endurkvæma virka eða register vélar reyndist einnig vera Turing-lokið. Ritgerðin Church-Turing þróaðist út frá þessum niðurstöðum, en þótt almennt sé ekki hægt að sanna hana er almennt viðurkennt.

Hægt er að lýsa hugtakinu ráðfæranleika sem spurningunni um hvort hægt sé að leysa ákveðið vandamál reikniritlega. Ákveðið vandamál er til dæmis eign texta til að vera setningafræðilega rétt forrit. Vandamál sem ekki er hægt að ákveða er til dæmis spurningin um hvort tiltekið forrit með tilteknum inntaksbreytum komi nokkurn tíma til niðurstöðu, sem kallað er stöðvarvandamál .

Flókniskenning

Flókniskenningin fjallar um auðlindakröfur reikniritmeðhöndlaðra vandamála á mismunandi stærðfræðilega skilgreindum formlegum tölvulíkönum, svo og gæði reikniritanna sem leysa þau. Sérstaklega eru auðlindir „ keyrslutími “ og „ geymslurými “ skoðaðar og kröfur þeirra eru venjulega táknaðar í Landau merkingu . Fyrst og fremst er tekið fram keyrslutíma og kröfur um geymslurými eftir lengd inntaks. Reiknirit sem eru í mesta lagi mismunandi eftir stöðugum þætti í notkunartíma þeirra eða geymsluþörf þeirra eru flokkaðir í sama flokk, þ.e. safn vandamála með sambærilegan keyrslutíma sem reikniritið fyrir lausnina krefst, með því að nota Landau merkið.

Reiknirit, sem keyrslutími er óháð inntakslengd, vinnur „á föstum tíma“, skrifar þú . Til dæmis mun forritið „skila fyrsta atriðinu á lista“ virka á föstum tíma. Forritið „athugaðu hvort ákveðinn þáttur er í óflokkaðri lengdarlista n“ þarf „línulegan tíma“, það er , vegna þess að í versta falli þarf að lesa inntakslistann nákvæmlega einu sinni.

Flókakenningin hefur hingað til aðeins veitt efri mörk fyrir auðlindakröfur vandamála, því aðferðir til nákvæmra neðri marka hafa varla verið þróaðar og aðeins nokkur vandamál eru þekkt (til dæmis fyrir það verkefni að raða lista yfir gildi með hjálp tiltekinnar röðartengingar með samanburði, neðri mörkin ). Engu að síður eru til aðferðir til að flokka sérstaklega erfið vandamál sem slík þar sem kenningin um NP-heilleika gegnir lykilhlutverki. Samkvæmt þessu er vandamál sérstaklega erfitt ef hægt er að leysa flest önnur náttúruleg vandamál sjálfkrafa með því að leysa það án þess að nota verulega fleiri úrræði.

Stærsta opna spurningin í margbreytileikakenningunni er spurningin um P = NP ?“ . Vandamálið er eitt af árþúsunda vandamálunum sem Clay stærðfræðistofnunin auglýsti fyrir eina milljón dala. Ef P er ekki jafnt NP, þá er ekki hægt að leysa NP-heill vandamál á skilvirkan hátt.

Kenning um forritunarmál

Þetta svæði fjallar um kenningu, greiningu, persónusköpun og framkvæmd forritunarmála og er rannsakað virkan bæði í verklegum og fræðilegum tölvunarfræði. Undirsvæðið hefur mikil áhrif á tengd viðfangsefni eins og hluta stærðfræði og málvísinda .

Formleg aðferðakenning

Kenningin um formlegar aðferðir fjallar um margs konar aðferðir við formlega forskrift og sannprófun hugbúnaðar og vélbúnaðar . Hvatningin fyrir þetta svæði kemur frá verkfræðilegri hugsun - ströng stærðfræðigreining hjálpar til við að bæta áreiðanleika og áreiðanleika kerfis. Þessir eiginleikar eru sérstaklega mikilvægir í kerfum sem virka á mikilvægum öryggissvæðum. Að rannsaka slíkar aðferðir krefst meðal annars þekkingar á stærðfræðilegri rökfræði og formlegri merkingarfræði .

Hagnýt tölvunarfræði

Hagnýt tölvunarfræði þróar grunnhugtök og aðferðir til að leysa ákveðin vandamál í raunveruleikanum, til dæmis stjórnun gagna í gagnagerð eða þróun hugbúnaðar . Þróun reiknirita gegnir hér mikilvægu hlutverki. Dæmi um þetta eru flokkunar- og leitarreiknirit .

Eitt af aðalviðfangsefnum hagnýtra tölvunarfræði er hugbúnaðartækni (einnig kölluð hugbúnaðarverkfræði ). Hún fjallar um kerfisbundna gerð hugbúnaðar. Hugmyndir og fyrirhugaðar lausnir fyrir stór hugbúnaðarverkefni eru einnig þróaðar, sem ætti að leyfa endurtekið ferli frá hugmyndinni til fullbúins hugbúnaðar.

C kóða Vélkóði (skýringarmynd)
 / **
* Útreikningur á GCD tveimur tölum
* samkvæmt reikniritum Evklíðs
* /
INT GGT (int tala_1, int tala_2) {
  int temp ;
  á meðan ( tala2 ! = 0 ) {
    hitastig = tala1 % tala2 ;
    númer1 = tala2 ;
    númer2 = hitastig ;
  }
  skila númer1 ;
}
→ Þýðandi →
 ...
 0010 0100 1011 0111
 1000 1110 1100 1011
 0101 1001 0010 0001
 0111 0010 0011 1101
 0001 0000 1001 0100
 1000 1001 1011 1110
 0001 0011 0101 1001
 0111 0010 0011 1101
 0001 0011 1001 1100
 ...
Teikning af B-tré

Mikilvægt viðfangsefni í hagnýtum tölvunarfræði er smíði þýðanda , sem einnig er skoðuð í fræðilegum tölvunarfræði. Þýðandi er forrit sem þýðir önnur forrit frá upprunamáli (t.d. Java eða C ++ ) yfir á markmál. Þýðandi gerir manni kleift að þróa hugbúnað á óhlutbundnara tungumáli en vélatungumálið sem örgjörvinn notar.

Dæmi um notkun gagnamannvirkja er B-tréð , sem gerir kleift að leita fljótt í stórum gagnagrunnum í gagnagrunnum og skráarkerfum .

Tæknileg tölvunarfræði

Tæknilegar upplýsingar fjalla um grunnatriði vélbúnaðar upplýsingatækni, svo sem örgjörvi tækni , tölvuarkitektúr , innbyggð og rauntíma kerfi , tölvunet þar á meðal tilheyrandi kerfistengdan hugbúnað, svo og líkan- og matsaðferðir sem þróaðar eru í þessum tilgangi.

Virkni tæknilegra upplýsingatækni

Örgjörvi tækni, tölvuhönnunarferli

Örgjörvi tækni einkennist af hraðri þróun hálfleiðara tækni . Uppbyggingarbreiddin á nanómetra sviðinu gerir kleift að smækka mjög flókna hringrás með nokkrum milljörðum einstakra íhluta. Þessi margbreytileiki er aðeins hægt að ná tökum á með háþróaðri hönnunarverkfærum og öflugu vélbúnaðarlýsingarmálum . Leiðin frá hugmyndinni að fullunninni vöru liggur í gegnum mörg stig, sem eru að miklu leyti tölvustýrð og tryggja mikla nákvæmni og frelsi frá villum. Ef vélbúnaður og hugbúnaður eru hannaðir saman vegna mikillar kröfu um afköst er þetta einnig nefnt samhönnun vélbúnaðar og hugbúnaðar.

Arkitektúr

Die Rechnerarchitektur bzw. Systemarchitektur ist das Fachgebiet, das Konzepte für den Bau von Computern bzw. Systemen erforscht. Bei der Rechnerarchitektur wird z. B. das Zusammenspiel von Prozessoren , Arbeitsspeicher sowie Steuereinheiten ( Controller ) und Peripherie definiert und verbessert. Das Forschungsgebiet orientiert sich dabei sowohl an den Anforderungen der Software als auch an den Möglichkeiten, die sich über die Weiterentwicklung von Integrierten Schaltkreisen ergeben. Ein Ansatz ist dabei rekonfigurierbare Hardware wie z. B. FPGAs (Field Programmable Gate Arrays), deren Schaltungsstruktur an die jeweiligen Anforderungen angepasst werden kann.

Aufbauend auf der Architektur der sequentiell arbeitenden Von-Neumann-Maschine , bestehen heutige Rechner in der Regel aus einem Prozessor, der selbst wieder mehrere Prozessorkerne, Speicher-Controller und eine ganze Hierarchie von Cache -Speichern enthalten kann, einem als Direktzugriffsspeicher ( Random-Access Memory , RAM) ausgelegten Arbeitsspeicher (Primärspeicher) und Ein/Ausgabe-Schnittstellen unter anderem zu Sekundärspeichern (z. B. Festplatte oder SSD-Speicher ). Durch die vielen Einsatzgebiete ist heute ein weites Spektrum von Prozessoren im Einsatz, das von einfachen Mikrocontrollern , z. B. in Haushaltsgeräten über besonders energieeffiziente Prozessoren in mobilen Geräten wie Smartphones oder Tabletcomputern bis hin zu intern parallel arbeitenden Hochleistungsprozessoren in Personal Computern und Servern reicht. Parallelrechner gewinnen an Bedeutung, bei denen Rechenoperationen auf mehreren Prozessoren gleichzeitig ausgeführt werden können. Der Fortschritt der Chiptechnik ermöglicht heute schon die Realisierung einer großen Zahl (gegenwärtige Größenordnung 100…1000) von Prozessorkernen auf einem einzigen Chip ( Mehrkernprozessoren , Multi/Manycore-Systeme, „ System-on-a-Chip “ (SoCs)).

Ist der Rechner in ein technisches System eingebunden und verrichtet dort weitgehend unsichtbar für den Benutzer Aufgaben wie Steuerung, Regelung oder Überwachung, spricht man von einem eingebetteten System. Eingebettete Systeme sind in einer Vielzahl von Geräten des Alltags wie Haushaltsgeräten, Fahrzeugen, Geräten der Unterhaltungselektronik, Mobiltelefonen, aber auch in industriellen Systemen z. B. in der Prozessautomation oder der Medizintechnik im Einsatz. Da eingebettete Computer immerzu und überall verfügbar sind, spricht man auch von allgegenwärtigem oder ubiquitärem Rechnen ( Ubiquitous computing ). Immer häufiger sind diese Systeme vernetzt, z. B. mit dem Internet („ Internet of Things “). Netzwerke von interagierenden Elementen mit physikalischer Eingabe von und Ausgabe zu ihrer Umwelt werden auch als Cyber-Physical Systems bezeichnet. Ein Beispiel sind drahtlose Sensornetze zur Umweltüberwachung.

Echtzeitsysteme sind darauf ausgelegt, dass sie auf bestimmte zeitkritisch ablaufende Prozesse der Außenwelt mit angemessener Reaktionsgeschwindigkeit rechtzeitig antworten können. Dies setzt voraus, dass die Ausführungszeit der Antwortprozesse entsprechende vorgegebene Zeitschranken garantiert nicht überschreitet. Viele eingebettete Systeme sind auch Echtzeitsysteme.

Eine zentrale Rolle bei allen Mehrrechnersystemen spielt die Rechnerkommunikation. Diese ermöglicht den elektronischen Datenaustausch zwischen Computern und stellt damit die technische Grundlage des Internets dar. Neben der Entwicklung von Routern , Switches oder Firewalls , gehört hierzu auch die Entwicklung der Softwarekomponenten, die zum Betrieb dieser Geräte nötig ist. Dies schließt insbesondere die Definition und Standardisierung von Netzwerkprotokollen , wie TCP , HTTP oder SOAP , ein. Protokolle sind dabei die Sprachen, in denen Rechner untereinander Information austauschen.

Bei Verteilten Systemen arbeitet eine große Zahl von Prozessoren ohne gemeinsamen Speicher zusammen. Üblicherweise regeln Prozesse , die über Nachrichten miteinander kommunizieren, die Zusammenarbeit von einzelnen weitgehend unabhängigen Computern in einem Verbund ( Cluster ). Schlagworte in diesem Zusammenhang sind beispielsweise Middleware , Grid-Computing und Cloud Computing .

Modellierung und Bewertung

Als Basis für die Bewertung der genannten Architekturansätze sind – wegen der generellen Komplexität solcher Systemlösungen – spezielle Modellierungsmethoden entwickelt worden, um Bewertungen bereits vor der eigentlichen Systemrealisierung durchführen zu können. Besonders wichtig ist dabei zum einen die Modellierung und Bewertung der resultierenden Systemleistung, z. B. anhand von Benchmark -Programmen. Als Methoden zur Leistungsmodellierung sind z. B. Warteschlangenmodelle , Petri-Netze und spezielle verkehrstheoretische Modelle entwickelt worden. Vielfach wird insbesondere bei der Prozessorentwicklung auch Computersimulation eingesetzt.

Neben der Leistung können auch andere Systemeigenschaften auf der Basis der Modellierung studiert werden; z. B. spielt gegenwärtig auch der Energieverbrauch von Rechnerkomponenten eine immer größere, zu berücksichtigende Rolle. Angesichts des Wachstums der Hardware- und Softwarekomplexität sind außerdem Probleme der Zuverlässigkeit, Fehlerdiagnose und Fehlertoleranz , insbesondere bei sicherheitskritischen Anwendungen, von großer Bedeutung. Hier gibt es entsprechende, meist auf Verwendung redundanter Hardware- bzw. Softwareelemente basierende Lösungsmethoden.

Beziehungen zu anderen Informatikgebieten und weiteren Fachdisziplinen

Die Technische Informatik hat enge Beziehungen zu anderen Gebieten der Informatik und den Ingenieurwissenschaften. Sie baut auf der Elektronik und Schaltungstechnik auf, wobei digitale Schaltungen im Vordergrund stehen ( Digitaltechnik ). Für die höheren Softwareschichten stellt sie die Schnittstellen bereit, auf denen wiederum diese Schichten aufbauen. Insbesondere über eingebettete Systeme und Echtzeitsysteme gibt es enge Beziehungen zu angrenzenden Gebieten der Elektrotechnik und des Maschinenbaus wie Steuerungs- , Regelungs- und Automatisierungstechnik sowie zur Robotik .

Informatik in interdisziplinären Wissenschaften

Unter dem Sammelbegriff der Angewandten Informatik „fasst man das Anwenden von Methoden der Kerninformatik in anderen Wissenschaften … zusammen“ . [1] Rund um die Informatik haben sich einige interdisziplinäre Teilgebiete und Forschungsansätze entwickelt, teilweise zu eigenen Wissenschaften . Beispiele:

Computational sciences

Dieses interdisziplinäre Feld beschäftigt sich mit der computergestützten Analyse, Modellierung und Simulation von naturwissenschaftlichen Problemen und Prozessen. Entsprechend den Naturwissenschaften wird hier unterschieden:

  • Die Bioinformatik (englisch bioinformatics , auch computational biology ) befasst sich mit den informatischen Grundlagen und Anwendungen der Speicherung, Organisation und Analyse biologischer Daten . Die ersten reinen Bioinformatikanwendungen wurden für die DNA -Sequenzanalyse entwickelt. Dabei geht es primär um das schnelle Auffinden von Mustern in langen DNA-Sequenzen und die Lösung des Problems, wie man zwei oder mehr ähnliche Sequenzen so übereinander legt und gegeneinander ausrichtet, dass man eine möglichst optimale Übereinstimmung erzielt ( sequence alignment ). Mit der Aufklärung und weitreichenden Funktionsanalyse verschiedener vollständiger Genome (z. B. des Fadenwurms Caenorhabditis elegans ) verlagert sich der Schwerpunkt bioinformatischer Arbeit auf Fragestellungen der Proteomik , wie z. B. dem Problem der Proteinfaltung und Strukturvorhersage , also der Frage nach der Sekundär- oder Tertiärstruktur bei gegebener Aminosäuresequenz.
    • Die Biodiversitätsinformatik umfasst die Speicherung und Verarbeitung von Informationen zur biologischen Vielfalt. Während die Bioinformatik sich mit Nucleinsäuren und Proteinen beschäftigt, sind die Objekte der Biodiversitätsinformatik Taxa , biologische Sammlungsbelege und Beobachtungsdaten.
    • Künstliches Leben (englisch Artificial life ) wurde 1986 als interdisziplinäre Forschungsdisziplin etabliert. [20] [21] Die Simulation natürlicher Lebensformen mit Software- ( soft artificial life ) und Hardwaremethoden ( hard artificial life ) ist ein Hauptziel dieser Disziplin. [22] Anwendungen für künstliches Leben gibt es heute unter anderem in der synthetischen Biologie, im Gesundheitssektor und der Medizin, in der Ökologie, bei autonomen Robotern, im Transport- und Verkehrssektor, in der Computergrafik, für virtuelle Gesellschaften und bei Computerspielen. [23]
  • Die Chemoinformatik (englisch chemoinformatics , cheminformatics oder chemiinformatics ) bezeichnet einen Wissenschaftszweig, der das Gebiet der Chemie mit Methoden der Informatik verbindet und umgekehrt. Sie beschäftigt sich mit der Suche im chemischen Raum , welcher aus virtuellen ( in silico ) oder realen Molekülen besteht. Die Größe des chemischen Raumes wird auf etwa 10 62 Moleküle geschätzt und ist weit größer als die Menge der bisher real synthetisierten Moleküle. Somit lassen sich unter Umständen Millionen von Molekülen mit Hilfe solcher Computer-Methoden in silico testen, ohne diese explizit mittels Methoden der Kombinatorischen Chemie oder Synthese im Labor erzeugen zu müssen.

Ingenieurinformatik, Maschinenbauinformatik

Die Ingenieurinformatik , englisch auch als Computational Engineering Science bezeichnet, ist eine interdisziplinäre Lehre an der Schnittstelle zwischen den Ingenieurwissenschaften , der Mathematik und der Informatik an den Fachbereichen Elektrotechnik , Maschinenbau , Verfahrenstechnik , Systemtechnik .
Die Maschinenbauinformatik beinhaltet im Kern die virtuelle Produktentwicklung ( Produktionsinformatik ) mittels Computervisualistik , sowie die Automatisierungstechnik .

Wirtschaftsinformatik, Informationsmanagement

Die Wirtschaftsinformatik (englisch (business) information systems , auch management information systems ) ist eine „Schnittstellen-Disziplin“ zwischen der Informatik und den Wirtschaftswissenschaften , besonders der Betriebswirtschaftslehre . Sie hat sich durch ihre Schnittstellen zu einer eigenständigen Wissenschaft entwickelt und kann sowohl an Wirtschafts- als auch an Informatik- Fakultäten studiert werden. Ein Schwerpunkt der Wirtschaftsinformatik liegt auf der Abbildung von Geschäftsprozessen und der Buchhaltung in relationalen Datenbanksystemen und Enterprise-Resource-Planning -Systemen. Das Information Engineering der Informationssysteme und das Informationsmanagement spielen im Rahmen der Wirtschaftsinformatik eine gewichtige Rolle. Entwickelt wurde dies an der Fachhochschule Furtwangen bereits 1971. [13] Ab 1974 richteten die damalige TH Darmstadt, die Johannes-Kepler-Universität Linz und die TU Wien einen Studiengang Wirtschaftsinformatik ein.

Sozioinformatik

Die Sozioinformatik befasst sich mit den Auswirkungen von IT-Systemen auf die Gesellschaft, wie sie z. B. Organisationen und Gesellschaft in ihrer Organisation unterstützen, aber auch wie die Gesellschaft auf die Entwicklung von sozial eingebetteten IT-Systemen einwirkt, sei es als Prosumenten auf kollaborativen Plattformen wie der Wikipedia, oder mittels rechtlicher Einschränkungen, um beispielsweise Datensicherheit zu garantieren.

Sozialinformatik

Die Sozialinformatik befasst sich zum einen mit dem IT-Betrieb in sozialen Organisationen, zum anderen mit Technik und Informatik als Instrument der Sozialen Arbeit, wie zum Beispiel beim Ambient Assisted Living .

Medieninformatik

Die Medieninformatik hat die Schnittstelle zwischen Mensch und Maschine als Schwerpunkt und befasst sich mit der Verbindung von Informatik, Psychologie , Arbeitswissenschaft , Medientechnik , Mediengestaltung und Didaktik .

Computerlinguistik

In der Computerlinguistik wird untersucht, wie natürliche Sprache mit dem Computer verarbeitet werden kann. Sie ist ein Teilbereich der Künstlichen Intelligenz , aber auch gleichzeitig Schnittstelle zwischen Angewandter Linguistik und Angewandter Informatik . Verwandt dazu ist auch der Begriff der Kognitionswissenschaft , die einen eigenen interdisziplinären Wissenschaftszweig darstellt, der ua Linguistik , Informatik, Philosophie , Psychologie und Neurologie verbindet. Anwendungsgebiete der Computerlinguistik sind die Spracherkennung und -synthese , automatische Übersetzung in andere Sprachen und Informationsextraktion aus Texten.

Umweltinformatik, Geoinformatik

Die Umweltinformatik beschäftigt sich interdisziplinär mit der Analyse und Bewertung von Umweltsachverhalten mit Mitteln der Informatik. Schwerpunkte sind die Verwendung von Simulationsprogrammen , Geographische Informationssysteme (GIS) und Datenbanksysteme.
Die Geoinformatik (englisch geoinformatics ) ist die Lehre des Wesens und der Funktion der Geoinformation und ihrer Bereitstellung in Form von Geodaten und mit den darauf aufbauenden Anwendungen auseinander. Sie bildet die wissenschaftliche Grundlage für Geoinformationssysteme (GIS). Allen Anwendungen der Geoinformatik gemeinsam ist der Raumbezug und fallweise dessen Abbildung in kartesische räumliche oder planare Darstellungen im Bezugssystem .

Andere Informatikdisziplinen

Weitere Schnittstellen der Informatik zu anderen Disziplinen gibt es in der Informationswirtschaft , Medizinischen Informatik , Logistikinformatik , Pflegeinformatik und der Rechtsinformatik , Informationsmanagement ( Verwaltungsinformatik , Betriebsinformatik ), Architekturinformatik ( Bauinformatik ) sowie der Agrarinformatik , Archäoinformatik , Sportinformatik , sowie neue interdisziplinäre Richtungen wie beispielsweise das Neuromorphic Engineering . Die Zusammenarbeit mit der Mathematik oder der Elektrotechnik wird aufgrund der Verwandtschaft nicht als interdisziplinär bezeichnet. Mit dem Informatikunterricht , besonders an Schulen, befasst sich die Didaktik der Informatik . Die Elementarinformatik beschäftigt sich mit der Vermittlung von grundlegenden Informatikkonzepten im Vorschul- und Grundschulbereich.

Künstliche Intelligenz

Eine Kohonenkarte beim Lernen

Die Künstliche Intelligenz (KI) ist ein großes Teilgebiet der Informatik mit starken Einflüssen aus Logik , Linguistik , Neurophysiologie und Kognitionspsychologie . Dabei unterscheidet sich die KI in der Methodik zum Teil erheblich von der klassischen Informatik. Statt eine vollständige Lösungsbeschreibung vorzugeben, wird in der Künstlichen Intelligenz die Lösungsfindung dem Computer selbst überlassen. Ihre Verfahren finden Anwendung in Expertensystemen , in der Sensorik und Robotik .

Im Verständnis des Begriffs „Künstliche Intelligenz“ spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom Menschen als Maschine wider, dessen Nachahmung sich die sogenannte „starke KI“ zum Ziel setzt: eine Intelligenz zu erschaffen, die wie der Mensch nachdenken und Probleme lösen kann und die sich durch eine Form von Bewusstsein beziehungsweise Selbstbewusstsein sowie Emotionen auszeichnet.

Die Umsetzung dieses Ansatzes erfolgte durch Expertensysteme, die im Wesentlichen die Erfassung, Verwaltung und Anwendung einer Vielzahl von Regeln zu einem bestimmten Gegenstand (daher „Experten“) leisten.

Im Gegensatz zur starken KI geht es der „schwachen KI“ darum, konkrete Anwendungsprobleme zu meistern. Insbesondere sind dabei solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „ Intelligenz “ notwendig scheint. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik; es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis der Intelligenz. Ein Beispiel aus der schwachen KI ist die Fuzzylogik .

Neuronale Netze gehören ebenfalls in diese Kategorie – seit Anfang der 1980er Jahre analysiert man unter diesem Begriff die Informationsarchitektur des (menschlichen oder tierischen) Gehirns. Die Modellierung in Form künstlicher neuronaler Netze illustriert, wie aus einer sehr einfachen Grundstruktur eine komplexe Mustererkennung geleistet werden kann. Gleichzeitig wird deutlich, dass diese Art von Lernen nicht auf der Herleitung von logisch oder sprachlich formulierbaren Regeln beruht – und somit etwa auch die besonderen Fähigkeiten des menschlichen Gehirns innerhalb des Tierreichs nicht auf einen regel- oder sprachbasierten „Intelligenz“-Begriff reduzierbar sind. Die Auswirkungen dieser Einsichten auf die KI-Forschung, aber auch auf Lerntheorie , Didaktik und andere Gebiete werden noch diskutiert.

Während die starke KI an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der schwachen KI Fortschritte erzielt worden.

Informatik und Gesellschaft

„Informatik und Gesellschaft“ (IuG) ist ein Teilbereich der Wissenschaft Informatik und erforscht die Rolle der Informatik auf dem Weg zur Informationsgesellschaft. Die dabei untersuchten Wechselwirkungen der Informatik umfassen die unterschiedlichsten Aspekte. Ausgehend von historischen, sozialen, kulturellen Fragen betrifft dies ökonomische, politische, ökologische, ethische, didaktische und selbstverständlich technische Aspekte. Die entstehende global vernetzte Informationsgesellschaft wird für die Informatik als zentrale Herausforderung gesehen, in der sie als technische Grundlagenwissenschaft eine definierende Rolle spielt und diese reflektieren muss. IuG ist dadurch gekennzeichnet, dass eine interdisziplinäre Herangehensweise, insbesondere mit den Geisteswissenschaften, aber auch z. B. mit den Rechtswissenschaften notwendig ist.

Siehe auch

Portal: Informatik – Übersicht zu Wikipedia-Inhalten zum Thema Informatik

Literatur

Weblinks

Wiktionary: Informatik – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
Commons : Informatik – Sammlung von Bildern, Videos und Audiodateien
Wikibooks: Regal:EDV – Lern- und Lehrmaterialien

Einzelnachweise

  1. a b Duden Informatik A – Z: Fachlexikon für Studium, Ausbildung und Beruf, 4. Aufl., Mannheim 2006. ISBN 978-3-411-05234-9 .
  2. Gesellschaft für Informatik: Was ist Informatik? Unser Positionspapier, S. 8 ff. Abgerufen am 9. Februar 2021 .
  3. Friedrich L. Bauer: Historische Notizen zur Informatik . Springer Science & Business Media, 2009, ISBN 978-3-540-85789-1 , S.   36 ( eingeschränkte Vorschau in der Google-Buchsuche [abgerufen am 25. Februar 2017]).
  4. Arno Pasternak: Fach- und bildungswissenschaftliche Grundlagen für den Informatikunterricht in der Sekundarstufe I (Dissertation). (PDF; 14,0 MB) 17. Mai 2013, S. 47 , abgerufen am 31. Juli 2020 (mit einem Faksimile des einleitenden Abschnitts aus den SEG-Nachrichten 4/1957).
  5. Tobias Häberlein: Eine praktische Einführung in die Informatik mit Bash und Python . Oldenbourg Verlag, 2011, ISBN 978-3-486-71445-6 , S.   5 ( eingeschränkte Vorschau in der Google-Buchsuche [abgerufen am 25. Februar 2017]).
  6. Präsentation zur 40-jährigen Geschichte der GI und der Informatik ( Memento vom 23. Dezember 2012 im Internet Archive ) (PDF; 3,1 MB)
  7. Friedrich L. Bauer: Historische Notizen zur Informatik . Springer Science & Business Media, 2009, ISBN 978-3-540-85789-1 , S.   36 ( eingeschränkte Vorschau in der Google-Buchsuche [abgerufen am 25. Februar 2017]).
  8. Wolfgang Coy : Geschichten der Informatik. Visionen, Paradigmen, Leitmotive . Hrsg.: Hans Dieter Hellige. Springer, 2004, ISBN 3-540-00217-0 , S.   475 .
  9. Start of study as from winter semester 2012/2013 – Fakultät für Informatik der Technischen Universität München. In: www.in.tum.de. Abgerufen am 7. September 2015 .
  10. a b c d Christine Pieper: Hochschulinformatik in der Bundesrepublik und der DDR bis 1989/1990 . In: Wissenschaft, Politik und Gesellschaft . 1. Auflage. Franz Steiner Verlag, Stuttgart 2009, ISBN 978-3-515-09363-7 .
  11. Fakultät für Informatik: Geschichte. Abgerufen am 13. September 2019 .
  12. 40 Jahre Informatik in München: 1967–2007 / Festschrift ( Memento vom 17. Mai 2011 im Internet Archive ) (PDF) S. 26 auf in.tum.de , abgerufen am 5. Januar 2014.
  13. a b Geschichte der HS Furtwangen
  14. Geschichte des Universitätsbereichs im KIT
  15. https://www.jku.at/die-jku/ueber-uns/geschichte/
  16. Kurze Geschichte der Technischen Universität Wien ( Memento vom 5. Juni 2012 im Internet Archive )
  17. University of Cambridge: A brief informal history of the Computer Laboratory
  18. University of Cambridge: Cambridge Computing: The First 75 Years , S. 96.
  19. Konrad Zuse – der Namenspatron des ZIB (abgerufen am 27. Juli 2012)
  20. Christopher Langton: Studying Artificial Life with Cellular Automata. In: Physics 22ID:120-149
  21. Christopher Langton: What is Artificial Life? (1987) pdf ( Memento vom 11. März 2007 im Internet Archive )
  22. Marc A. Bedau: Artificial life: organization, adaptation and complexity from the bottom up
  23. Wolfgang Banzhaf, Barry McMullin: Artificial Life. In: Grzegorz Rozenberg, Thomas Bäck, Joost N. Kok (Hrsg.): Handbook of Natural Computing. Springer 2012. ISBN 978-3-540-92909-3 (Print), ISBN 978-3-540-92910-9 (Online)