Ond doktor og etisk android

Lidt småsnak om Evil doctor, ethical android: Star Trek’s instantiation of conscience in subroutines, Victor Grech, Mariella Scerri, David Zammit, MOSF Journal of Science Fiction.

  • Det er vigtigt, at sådan nogen som Data og Doktoren har etiske underprogrammer (ethical subroutines). Det er i praksis deres samvittighed.
  • Er de bevidste væsener, på højde med mennesker? Det undlader Star Trek omhyggeligt at svare på.
  • “Descent”. Lore får slået Datas etiske underprogrammer fra og lokker ham til at skade bl.a. Geordi. Lore er en dårlig indflydelse.
  • “Latent Image”. Doktoren har etiske underprogrammer, men de slår ikke altid til. Hvordan vælger man, hvem der skal dø, når der ikke er ressourcer nok til at holde alle i live?
  • “Equinox”. Her er der en ligesom Doktoren, men uden etiske underprogrammer. Derfor er der ingen problemer i, at dette rumskib kan bruge bevidste væsner som drivkraft. De synes faktisk slet ikke, at de gør noget forkert. Men det gør vores Doktor og hans kollegaer jo. Hvem har ret? Er etiske underprogrammer nok til at løse sådan en konflikt?
  • “Darkling”. Doktoren har forbedret sig selv lidt, nappet nogle brugbare egenskaber fra forskellige andre programmer. Han har klart udviklet sig og mener nu, at han ikke længere har brug for etiske underprogrammer. Måske har han ret? Måske behøver ægte bevidste væsener ikke den slags. Har vi etiske underprogrammer indbygget i os?

Abstract

Machine intelligence, whether it constitutes Strong Artificial Intelligence (AI) or Weak AI, may have varying degrees of independence. Both Strong and Weak AI are often depicted as being programmed with safeguards that prevent harm to humanity, precepts which are informed by Isaac Asimov’s Laws of Robotics. This paper will review these programs through a reading of instances of machine intelligence in Star Trek, and will attempt to show that these “ethical subroutines” may well be vital to our continued existence, irrespective of whether machine intelligences constitute Strong or Weak AI. In effect, this paper will analyse the machine analogues of conscience in several Star Trek series, and will do so through an analysis of the android Data and the Emergency Medical Hologram. We will argue that AI should be treated with caution, lest we create powerful intelligences that may not only ignore us but also find us threatening, with unknown and inconceivable consequences.


Jeg har da i øvrigt skrevet om Star Trek før, på engelsk og dansk.

Skriv et svar

Udfyld dine oplysninger nedenfor eller klik på et ikon for at logge ind:

WordPress.com Logo

Du kommenterer med din WordPress.com konto. Log Out /  Skift )

Google+ photo

Du kommenterer med din Google+ konto. Log Out /  Skift )

Twitter picture

Du kommenterer med din Twitter konto. Log Out /  Skift )

Facebook photo

Du kommenterer med din Facebook konto. Log Out /  Skift )

Connecting to %s