Nebula (reboot)
Wilt u reageren op dit bericht? Maak met een paar klikken een account aan of log in om door te gaan.

Koen Vervloesem - Kunnen robots moreel leren leven?

2 plaatsers

Ga naar beneden

Koen Vervloesem - Kunnen robots moreel leren leven? Empty Re: Koen Vervloesem - Kunnen robots moreel leren leven?

Bericht  Krizia di dec 09, 2008 2:35 am

Geeft wel een mooi inzicht in de evolutietheorie.
Ik weet voor de rest eigenlijk niet wat ik ervan moet denken...
Misschien zullen uiteindelijk robots de mens toch overleven. Meer geheugencapaciteit, minder afhankelijk van de omgeving, gaat langer mee en nu ook emotioneel complex, gedreven tot overleving.
Vreemd, vreemd...
Krizia
Krizia
God
God

Aantal berichten : 195
Leeftijd : 36
Woonplaats : Zolder/Leuven
Registration date : 04-11-08

https://nebula.forummotion.com

Terug naar boven Ga naar beneden

Koen Vervloesem - Kunnen robots moreel leren leven? Empty Koen Vervloesem - Kunnen robots moreel leren leven?

Bericht  Benny di dec 09, 2008 2:19 am

Kunnen robots moreel leren leven?

Maandag, 1 december 2008, 01:00

Onderwerpen die filosofie en computerwetenschappen combineren, blijven me fascineren. In het oktobernummer van PC-Active kon je al het eerste deel van m'n bespreking van de conferentie 1st International Conference On Human-Robot Personal Relationships in Maastricht lezen, waarin ik de ideeën van Ronald Arkin, David Levy en Dylan Evans besprak over hoe we in de komende decennia persoonlijke relaties kunnen ontwikkelen met robots. Voordat we echt van persoonlijke relaties kunnen spreken, moeten robots wel een ethiek ontwikkelen. Dat is dan ook de focus van m'n artikel in het decembernummer van PC-Active. Toevallig zijn er vooral een aantal Nederlandse wetenschappers bezig met dit onderwerp, en die laat ik daar aan het woord. Hier volgt een samenvatting, maar meer kan je lezen in PC-Active. Op het PC-Active forum is er ook een discussie bezig over mijn artikel.

Medische data-assistent

De econoom en filosoof Vincent Wiegel van de Technische Universiteit Delft toonde op de conferentie in Maastricht zijn werk over 'morele agenten'. "Kunstmatige agenten zijn tegenwoordig zo complex dat de ontwerpers ervan niet op voorhand kunnen voorzien welk gedrag hun systemen zullen hebben. We moeten er dan ook expliciet een vermogen inbouwen om moreel te redeneren," beweert Wiegel met klem. Voordat we met robots immers persoonlijke relaties kunnen aangaan, moeten we ze kunnen vertrouwen. En een noodzakelijke voorwaarde hiervoor is volgens hem dat deze robots een moreel besef hebben.

Wiegel is vorig jaar gedoctoreerd aan de Technische Universiteit Delft met zijn onderzoek "SophoLab: Experimental Computational Philosophy". Hierin onderzocht hij of we moreel redeneren in kunstmatige agenten kunnen inbrengen, en zo ja, hoe? Een complexe vorm hiervan is de expliciet ethische agent, die zelf redeneert over verschillende mogelijkheden vanuit moreel perspectief:

Een voorbeeld is de medische data-assistent, een complex stukje software dat persoonlijke medische gegevens beheert en nadenkt over de verschillende acties die hij kan uitvoeren. Op het moment dat bijvoorbeeld een ambulancier toegang vraagt tot de gegevens, kan de agent nadenken over het belang ervan. De data-assistent moet verschillende doelen kunnen verenigen: enerzijds het up-to-date en consistent houden van de gegevens, en anderzijds de privacy van de persoon beschermen en vermijden dat zijn medische gegevens met andere gegevens worden vermengd voor commerciële doeleinden.


Een expliciet ethische agent maken is iets dat we volgens Wiegel in principe kunnen met de kennis die we hebben, maar hij noemt het heel lastig. Hij vermoedt dat we hiervoor enerzijds de filosofie nog beter moeten begrijpen en anderzijds ook wat nieuwe technieken nodig hebben.

Hoe evolueert ethiek?

Computerwetenschapper Pieter Spronck van de Universiteit van Tilburg test ook ethische theorieën uit, maar dan op een andere manier. Zijn beginpunt was het volgende: als we echt menselijke robots willen maken, moeten ze zich kunnen aanpassen aan hun omstandigheden en zelf kunnen leren. Zouden zij dan vanzelf zich ethisch beginnen te gedragen? Volgens Spronck kan dat inderdaad. Hij baseert zich op evolutionaire ethiek, een theorie die op basis van biologische evolutie probeert te verklaren hoe mensen ethisch zijn geworden. "Met computersimulaties kunnen we de voorstellen van evolutionaire ethiek testen," zegt Spronck. "Zo kunnen we bestuderen in welke omstandigheden er ethisch gedrag kan ontstaan."

Spronck en zijn student Berend Berendsen programmeerden dus een digitale wereld (30 bij 30 cellen) met agenten die evolueerden. Een agent kan in elke stap een actie uitvoeren, zoals voedsel eten als dat in de buurt aanwezig is, waardoor zijn gezondheid verhoogt. Een agent kan ook een deel van zijn gezondheid aan een andere agent geven (altruïsme) en zichzelf voortplanten. Hij kan zich ook verplaatsen en een deel van de gezondheid van een andere agent stelen (egoïsme). Elke agent voert een programma met regels uit, zoals "Als de dichtstbijzijnde agent niet ouder dan 10 beurten is, steel dan zijn gezondheid." Van twee agenten die zich voortplanten worden de regels gemengd om het programma van hun kind te bekomen.

Koen Vervloesem - Kunnen robots moreel leren leven? Parents

In bepaalde omstandigheden evolueerden er agenten tot een moreel gedrag omdat hen dat een evolutionair voordeel gaf. En dat terwijl er geen enkel ethisch gedrag expliciet in werd geprogrammeerd. Volgens Spronck zou onze ethiek dus ook zo kunnen geëvolueerd zijn, en zouden robots als we ze in de juiste omstandigheden laten evolueren zich ook ethisch beginnen te gedragen. Hij wil hier verder onderzoek naar doen door complexere omgevingen te modelleren met meer soorten acties.

Emotionele tegenstanders in computergames

John-Jules Meyer van de Universiteit Utrecht doet dan weer onderzoek naar het programmeren van motivaties en emoties in kunstmatige agenten. Deze 'emotionele agenten' combineren emoties met rationele besluitvorming, net zoals mensen. Ze maken hun beslissingen dus niet enkel op basis van logisch redeneren, maar ook onder invloed van hun huidige emoties. Het al of niet slagen van de plannen van de agent heeft ook invloed op zijn emoties.

Meyer ziet wel toepassingen hiervan zitten in computergames: "Virtuele karakters in computergames kunnen zo een veel realistischer gedrag tonen, terwijl deze karakters in de huidige games gewoon emotieloos zijn." De onderzoekers van de Universiteit Utrecht zijn momenteel bezig dit systeem te implementeren op het Philips iCat-platform, een robot die emoties kan tonen door gezichtsuitdrukkingen en bedoeld is als gezelschapsrobot voor ouderen.

Bron: http://koan.filosofie.be/index.php?/archives/1245-Kunnen-robots-moreel-leren-leven.html

Damn fucking shit Shocked
Benny
Benny
Weener
Weener

Aantal berichten : 66
Leeftijd : 84
Woonplaats : Koersel/Maastricht
Registration date : 04-11-08

http://www.myspace.com/michielaz

Terug naar boven Ga naar beneden

Terug naar boven

- Soortgelijke onderwerpen

 
Permissies van dit forum:
Je mag geen reacties plaatsen in dit subforum