Britse minister blijkt ChatGPT te gebruiken voor beleidsadvies

Nieuws
door Thomas
vrijdag, 14 maart 2025 om 14:30
wat is manus de chinese startup gericht op autonome ai

De Britse minister van Wetenschap, Innovatie en Technologie, Peter Kyle, zet ChatGPT in als zijn persoonlijke sparringpartner voor lastige vraagstukken over kunstmatige intelligentie (AI). Dankzij een Freedom of Information Act (FOI) verzoek, wat burgers en journalisten het recht geeft om toegang te vragen tot overheidsdocumenten, is onlangs onthuld hoe hij de chatbot gebruikt.

Waarom gebruikt de minister ChatGPT?

De minister gebruikt de chatbot om complexe vraagstukken te verkennen. Zo raadpleegde Kyle ChatGPT om te achterhalen waarom AI nog niet breed wordt omarmd door het Britse midden- en kleinbedrijf (MKB). De chatbot presenteerde een heldere analyse met tien obstakels die bedrijven tegenhouden. Enkele opvallende punten:

  • Gebrek aan bewustzijn en kennis: Veel ondernemers weten simpelweg niet wat AI voor hen kan betekenen of vinden de technologie te complex.
  • Regelgevende en ethische obstakels: Strikte wetgeving zoals de GDPR maakt AI implementatie een juridische uitdaging.
  • Beperkte overheidssteun: Er zijn wel stimuleringsprogramma’s, maar die blijken lastig te vinden of ingewikkeld om aan te vragen.

Maar daar stopte het niet. Kyle gebruikte ChatGPT ook om uit te zoeken op welke podcasts hij het beste kon verschijnen om zijn boodschap te verspreiden. De chatbot raadde wetenschappelijke podcasts aan zoals The Infinite Monkey Cage en The Naked Scientists.

Is dit een goede ontwikkeling?

Of het gebruik van ChatGPT door een minister een goede ontwikkeling is, is de grote vraag. In het algemeen biedt AI enorm veel voordelen. Zo kan de chatbot inzichten bieden uit verschillende vakgebieden en trends signaleren die anders misschien over het hoofd worden gezien.

Toch zijn er ook risico’s. ChatGPT genereert antwoorden op basis van trainingsdata, maar kan soms verouderde, onvolledige of zelfs onjuiste informatie geven. Ook kunnen deze bots bevooroordeeld zijn door onder andere hun trainingsdata maar ook hoe ze zijn geprogrammeerd. Ministers kunnen hierdoor verkeerde beslissingen nemen als ze de output niet kritisch beoordelen of te afhankelijk worden van kunstmatige intelligentie.

Populair nieuws