Risico's van kunstmatige intelligentie

< Kunstmatige intelligentie < Bedreigingen
 * Engels: Risks regarding artificial intelligence
 * Zie ook: Risico's van social media
 * Zie ook: Toepassingen van kunstmatige intelligentie

Introductie
Er zijn allerlei risico's te benoemen wanneer het gaat over kunstmatige intelligentie. Technologie als ChatGPT kan het maken van nepnieuws veel gemakkelijker maken. Het is niet verstandig om blind te vertrouwen op algoritmen. Denk aan het toeslagenschandaal. Bij de introductie van ChatGPT vragen mensen zich af of de ontwikkelingen niet te snel gaan. Mensen hebben mogelijk meer tijd nodig om te wennen aan de nieuwe mogelijkheden. De Big Tech bedrijven zullen geen gas terug nemen, tenzij ze gereguleerd worden door overheden.

On our mind

 * The A.I. Dilemma
 * https://www.mpg.de/16231640/0108-bild-computer-scientists-we-wouldn-t-be-able-to-control-superintelligent-machines-149835-x

Voorbeelden van risico's

 * Black box society (NL)
 * Derde Wereldoorlog: index: wapenwedloop
 * Gedachten uitlezen
 * Nepnieuws
 * Surveillance (NL)
 * Verdwijnen van banen

Maatregelen

 * Mensen mee laten praten, denken en doen: In 2020 pleiten diverse experts om mensen (online) mee te laten denken. Er zijn in 2020 nog nauwelijks platformen waar je mee kunt praten, denken en/ of doen.
 * Onderzoek: Eric Schmidt (oud CEO Google) pleit begin 2017 voor openbaar onderzoek. Zie bericht op tweakers.
 * Regulering: Een EU-adviesgroep heeft in 2018 geadviseerd om tot een raamwerk van regels te komen. Zie bericht op tweakers.
 * https://tweakers.net/nieuws/133885/directeur-google-maak-wereldwijde-afspraken-over-kunstmatige-intelligentie.html
 * Focus op vraagstukken die hier en nu spelen: Volgens Alan Winfield (professor in Robotica) zouden we ons moeten focussen op de vraagstukken die in het hier en nu spelen. Denk aan verlies aan banen, ai gestuurde wapens, standaarden in zelfrijdende auto's, zorgrobots en diagnostische ai-tools in de zorg.

Index

 * Standpunten over kunstmatige intelligentie