Menu
Would you like to get notifications from Christian?

Google traint een 280-miljard-parameter AI-model voor natuurlijke taalverwerking

Google traint een 280-miljard-parameter AI-model voor natuurlijke taalverwerking

 

Wat is er gebeurd?

DeepMind heeft Gopher aangekondigd, een 280-miljard parameters tellend AI-model voor natuurlijke taalverwerking (NLP). Gebaseerd op de Transformer architectuur en getraind op een 10.5TB corpus genaamd MassiveText, presteerde Gopher beter dan de huidige state-of-the-art op 100 van 124 evaluatietaken. Lees het hele artikel hier: https://www.infoq.com/news/2022/01/deepmind-gopher/

 

Waarom is dit belangrijk?

Taal is de fundamentele bouwsteen van alle menselijke culturen, zij ligt ten grondslag aan onze interacties met elkaar en geeft vorm aan de samenleving als geheel. AI-technologie die taal kan "begrijpen" zal beginnen te begrijpen hoe wij binnen complexe systemen op een emotioneel niveau functioneren; dit zou kunnen leiden tot werkelijk verbazingwekkende ontdekkingen over onszelf of tot potentieel gevaarlijke misverstanden indien er niet op verantwoorde wijze gebruik van wordt gemaakt - stel je voor dat computers meer zouden weten dan alleen wat hun programmeurs van hen verlangen!

Disruptive Inspiration Daily

The latest disruptive trends with converging technologies that will change your life!

filter-icon

Filter onderwerpen

2030
3D
3D scannen
3D-printen
5G
Ai
algoritmen
AR
architectuur
art
augmentatie
Augmented Intelligence
Augmented Reality
Automatisering en autonomie
autonoom
avatar
Batterij
beeldvorming
beton
bewustzijn
Biomimicry
bitcoin
Blockchain
boerderij
bouw
chip
communicatie
computer
Creativiteit en productiviteit
crypto
DAO
deepmind
Democratie
Dienaar
digitale tweeling
disruption
Disruptive Inspiration Daily