__MAIN_TEXT__

Page 11

A I

DT U

11

Fire centrale ’Safe AI’-principper DTU Compute har formuleret en række tekniske ’Safe AI’-principper, der bl.a. lyder: • AI skal være sikker. Det er teknisk muligt at sikre AI gennem test, validering og verifikation. • AI skal kunne holde på en hemmelighed. Det er teknisk muligt at indbygge beskyttelse af privatliv, såkaldt ’privacy by design’. • AI skal have veldefinerede værdier. Det er teknisk muligt at teste AI for værdier og at få AI til at opfatte, reagere på og kommunikere med følelser. • AI skal være transparent og kommunikerende. L æ s mere p å ht t p s: // w w w . co m p u t e . d t u . d k / Ku n st ig - I nt el li ge n s-DT U

rikanske præsident Barack Obama og gjort ham til en hvid mand. Casen er et eksempel på en algoritmisk skævhed, der kan opstå, når algoritmer trænes op på databaser, der ikke er repræsentative, f.eks. ved at have en stor overvægt af hvide mandlige ansigter. Det skaber etiske dilemmaer. ”Vi ser, at AI skaber et større fokus på fundamentale værdier og giver nye muligheder for at opdage uligheder og uretfærdighed. Derfor gør vi meget ud af at uddanne vores studerende i etik, ligesom vi har formuleret en række ’Safe AI’-principper, der udgør en

Kunstig intelligens gennem tiden

1956

En række forskere bruger for første gang begrebet artificial intelligence på en workshop på Dartmouth College. Kilde: New Scientist

vision for ansvarlig kunstig intelligens, baseret på konkret og realistisk AI-­ teknologi. Det har vi gjort for at sikre, at teknologien lever op til demokratiske værdier og mulighed for kontrol,” siger Lars Kai Hansen. Han peger på, at der ud over de etiske problemstillinger også er stort fokus på bæredygtighed i forbindelse med AI-systemer. På den ene side skal der findes nye metoder, der kan gøre AI mindre energikrævende, og på den anden side er AI nøglen til en effektiv grøn omstilling og en bæredygtig verden i bredere forstand.

Ondsindede robotter En helt anden bekymring, der ofte bliver nævnt i medierne, er, om kunstig intelligens og robotter er kommet for at overtage verdensherredømmet. Men så sort ser professor Thomas Bolander fra DTU Compute ikke på det. Han arbejder bl.a. med at lære DTU’s robot R2DTU at fungere socialt og fleksibelt sammen med andre robotter og mennesker. ”Det er i princippet relevant at være bekymret. Men det skal bare være i den rigtige skala. Hvis man begynder med et skrækscenarie om, at robotterne bliver ondsindede, er det i hvert fald meget usandsynligt. Sådan nogle robotter vil ikke begynde at skabe deres egne behov for at gøre noget, de ikke er programmeret til. Men det betyder jo ikke, at robotter ikke kan gøre onde ting. Hvis du udvikler teknologi, der kan bruges til en førerløs bil, har du f.eks. alle ingredienser til at lave en selvkørende ’dræbermaskine’. Så det skal vi selvfølgelig have øjnene stift rettet imod.” Per B. Bro c k hof f, i n st i t u td i re k tø r,  DTU Co mp u t e , p e r b b @ d t u . d k L  a rs K a i H a n s e n , p rofe sso r, DT U Co m p u t e , l ka i@ d t u . d k Th  o ma s Bo l a nd e r, p rofe sso r, DT U Co m p u t e , to b o @ d t u . d k A  rt ik l en er et u d d ra g. L æs d e n i f u ld l æ n g d e p å ww w . d t u . d k / a i

Profile for DTUdk

Dynamo nr 63