Menu
Would you like to get notifications from Christian?
Christian Kromme

Google traint een 280-miljard-parameter AI-model voor natuurlijke taalverwerking

Google traint een 280-miljard-parameter AI-model voor natuurlijke taalverwerking

 

Wat is er gebeurd?

DeepMind heeft Gopher aangekondigd, een 280-miljard parameters tellend AI-model voor natuurlijke taalverwerking (NLP). Gebaseerd op de Transformer architectuur en getraind op een 10.5TB corpus genaamd MassiveText, presteerde Gopher beter dan de huidige state-of-the-art op 100 van 124 evaluatietaken. Lees het hele artikel hier: https://www.infoq.com/news/2022/01/deepmind-gopher/

 

Waarom is dit belangrijk?

Taal is de fundamentele bouwsteen van alle menselijke culturen, zij ligt ten grondslag aan onze interacties met elkaar en geeft vorm aan de samenleving als geheel. AI-technologie die taal kan “begrijpen” zal beginnen te begrijpen hoe wij binnen complexe systemen op een emotioneel niveau functioneren; dit zou kunnen leiden tot werkelijk verbazingwekkende ontdekkingen over onszelf of tot potentieel gevaarlijke misverstanden indien er niet op verantwoorde wijze gebruik van wordt gemaakt – stel je voor dat computers meer zouden weten dan alleen wat hun programmeurs van hen verlangen!

Sluiten

Vraag een offerte aan

We reageren zo snel als mogelijk op uw aanvraag.

  • Kies een Keynote *
  • Keynote Bundel (Optioneel)
  • Datum *
    DD dash MM dash JJJJ
  • Tijdslot Keynote *
  • Persoonlijke informatie

  • Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

Sluiten

Download je gratis e-boek

  • Download gratis de e-book versie van Humanification. Laat je e-mailadres achter en we sturen je direct het e-book per mail.

  • Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.