LingVo.club
📖+30 XP
🎧+20 XP
+35 XP
Grote taalmodellen en het publieke debat — Niveau B1 — puppet using tablet

Grote taalmodellen en het publieke debatCEFR B1

16 apr 2026

Gebaseerd op Daria Dergacheva, Global Voices CC BY 3.0

Foto door Brett Jordan, Unsplash

Niveau B1 – Middenniveau
3 min
154 woorden

De komst van grote taalmodellen nadat OpenAI ChatGPT beschikbaar maakte voor miljarden mensen in november 2022 veranderde het publieke debat over kunstmatige intelligentie. Het onderwerp staat ook in 2026 nog steeds centraal. Generatieve AI heeft verschillende effecten: het verstoorde het onderwijs, gaf sommige programmeurs nieuwe hulpmiddelen en werd ingezet in oorlogssituaties.

Veel AI-bedrijven hebben nog geen winstgevend businessmodel en kunnen geen duidelijke voorstellen doen. Toch promoten leidinggevenden vaak antropomorfe voorstellingen van hun modellen. Sommige bedrijven zijn verbonden met grote technologie-investeerders: Google ontwikkelt Gemini, Microsoft investeerde in Anthropic en OpenAI, en Meta heeft Llama.

Er is ook verwarring door vaktaal: modellen werden beschreven als "trained" op een groot "corpus" en fouten werden "hallucinations" genoemd. Onderzoekers merken op dat het om statistische fouten gaat; sommige schattingen noemen dat modellen in ongeveer 25–30 procent van de gevallen onjuist zijn. Experts pleiten voor ander taalgebruik en voor meer aandacht voor veiligheid, rechten en menselijke creativiteit.

Moeilijke woorden

  • taalmodelComputerprogramma dat taal produceert en begrijpt
    taalmodellen
  • komstHet verschijnen of begin van iets nieuws
  • verstorenIets storen of op een negatieve manier onderbreken
    verstoorde
  • hulpmiddelVoorwerp of programma dat werk vergemakkelijkt
    hulpmiddelen
  • winstgevendMeer geld opleveren dan kosten
  • leidinggevendeIemand die een team of organisatie bestuurt
    leidinggevenden
  • antropomorfMenselijke eigenschappen toekennen aan niet-mensen
    antropomorfe
  • statistischGebaseerd op gegevens en berekeningen
    statistische
  • veiligheidBescherming tegen gevaar of schade
  • onderzoekerPersoon die systematisch informatie onderzoekt
    Onderzoekers

Tip: beweeg de muisaanwijzer over gemarkeerde woorden in het artikel, of tik erop om snelle definities te zien terwijl je leest of luistert.

Discussievragen

  • Denk je dat scholen genoeg doen tegen de verstoring door AI? Waarom wel of niet?
  • Moeten bedrijven volgens jou meer aandacht besteden aan veiligheid en rechten van mensen? Leg kort uit.
  • Hoe zou jij AI veilig willen gebruiken in je werk of studie? Geef één of twee voorbeelden.

Gerelateerde artikelen

Nieuwe methode voor scherpere MRI-scans — Niveau B1
25 nov 2025

Nieuwe methode voor scherpere MRI-scans

Onderzoekers van Rice University en Oak Ridge National Laboratory publiceerden in The Journal of Chemical Physics een methode die moleculaire bewegingen koppelt aan signalen van klinische MRI-apparaten. De code is open source en de aanpak heeft toepassingen buiten de geneeskunde.