En del AI är mycket duktig, träffsäker. Den är som en sylvass kniv. Och den kan så klart sättas i händerna både på en mördare och på en kock, men även om den kan användas med både vällovliga och ondsinta avsikter, så blir det ofrånkomligen så att allt börjar se ut som lökar som ska hackas om man går omkring med den kniven. Verktygets beskaffenhet drar oss mot ett sätt att lösa problem på ett sätt som tjänar verktyget mer än oss. Vad som behövs är kvalitativa förändringar av AI. En förmåga att ställa andra mer relevanta frågor. Ett vanligt skräckexempel är att en robot har förstått att resurserna är begränsade i ett område och därför börjar döda människor för att alla ska få det bättre, men är det ett realistiskt eller bara katastrofierande scenario? Speglar den endast en överdriven rädsla för att släppa kontrollen? Delvis är den förstås rimlig. Det bör skrämma oss. Vi bör kanske inte göra den starkare (i.e. stark AI) utan oss själva. Vi bör förmodligen inte överlåta ställandet av de frågorna till en glorifierad räknemaskin. Det är en mänsklig plikt.
DELA