We weten dat de 9/11-kapingen zijn uitgevoerd met nagelschaartjes, veiligheidsspelden en paperclips. Nick Bostrom, directeur van het Future of Humanity Institute van de universiteit van Oxford, gaat nog een stapje verder. In zijn boek Superintelligence: Paths, Dangers, Strategies beschrijft hij een gedachte-experiment over de gevaren van kunstmatige intelligentie. Stel, zegt hij, dat je een robot of een computer, uitgerust met voldoende kunstmatige intelligentie, de opdracht geeft het aantal paperclips in de wereld zo groot mogelijk te maken. Uiteindelijk zal die robot slim genoeg zijn om de technologieën te bedenken en fabrieken te bouwen die nodig zijn om zijn doel te bereiken. Maar als hij echt slim is, zorgt hij ervoor dat mensen hem niet dwarsbomen, want dat zou ten koste gaan van het aantal paperclips. En als wij het hem écht lastig maken, zal hij niet schromen de hele mensheid uit te roeien. Een andere reden daarvoor zou kunnen zijn dat de robot voor de productie van paperclips over alle denkbare grondstoffen wil beschikken, bijvoorbeeld ook de atomen in het menselijk lichaam. Grappig is dat op de pagina van webmagazine Salon, waar dit verhaal vandaan komt, braaf een advertentie staat van een leverancier van paperclips (mét logo, en in maar liefst driehonderd verschillende uitvoeringen). Uiteraard is aan de plaatsing van die banner geen mens te pas gekomen. Onze kunstmatig intelligente robot ziet staan paperclips en ‘denkt’ hoppa, een advertentie! Hij vergat daarbij even dat paperclips die verkocht worden, gebruikt worden, en dus slijten, en uiteindelijk kapot gaan en geen paperclip meer zullen zijn. Zo bereikt hij zijn doel dus nooit. Dom.
Geef een reactie