Eliezer S. Yudkowsky, born September 11, 1979) is an American artificial intelligence researcher and writer on decision theory and ethics, best known for popularizing ideas related to friendly artificial intelligence, including the idea that there might not be a "fire alarm" for AI bron: Wikipedia
Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED 10 min.
(AI Safety Expert) Explains How AI Could Destroy Humanity
X 'Twitter'
5 min.
https://intelligence.org/ He is the lead researcher at a nonprofit called the Machine Intelligence Research Institute in Berkeley, California, and you could boil down the results of years of Yudkowsky’s theorising there to a couple of vowel sounds: “Oh fuuuuu–!”
Life, unplugged: a no-tech special - ‘Humanity’s remaining timeline? It looks more like five years than 50’: meet the neo-luddites warning of an AI apocalypse
From the academic who warns of a robot uprising to the workers worried for their future – is it time we started paying attention to the tech sceptics?
liezer Yudkowsky, a 44-year-old academic wearing a grey polo shirt, rocks slowly on his office chair and explains with real patience – taking things slowly for a novice like me – that every single person we know and love will soon be dead. .......... Guardian 17.02.2024
‘Als je me tegen een muur zet’, vervolgt hij, ‘en me dwingt om kansen op dingen te plakken, heb ik het gevoel dat onze huidige resterende tijdlijn meer op vijf dan op vijftig jaar lijkt. Het kan twee jaar zijn, het kan ook tien zijn.”
Hij is gaan geloven dat deze zelfde AI’s binnenkort zullen evolueren van hun huidige staat van “Ooh, kijk daar eens!” slimheid, uitgaande van een geavanceerde superintelligentie op goddelijk niveau, te snel en te ambitieus voor mensen om te beheersen of in te perken.
Stel je geen door mensen gemaakt brein in één doos voor, adviseert Yudkowsky. Om te begrijpen waar de zaken naartoe gaan, zegt hij, moet je proberen ‘een buitenaardse beschaving voor te stellen die duizend keer sneller denkt dan wij’, in heel veel dozen, bijna te veel om op een haalbare manier te ontmantelen, mochten we dat zelfs maar besluiten.
Het waarschijnlijke resultaat van het feit dat de mensheid geconfronteerd wordt met een tegengestelde bovenmenselijke intelligentie is een totaal verlies. Geldige metaforen zijn onder meer ‘
een 10-jarige die probeert te schaken tegen Stockfish 15’, ‘
de 11e eeuw die probeert te vechten tegen de 21e eeuw’ en
‘Australopithecus die probeert te vechten tegen Homo sapiens’.
Eliezer Yudkowsky You'll note that the central technology in the parable isn't an AI; it's an Outcome Pump. What it says, rather, is that there might be, say, a few tens of ... 15 feb 2024
AI Expert Claims 'Rebellious Self-Aware Machines' Could End Humanity in 2 Years bron: OECD Political Observatory
Update 18.06.2024