bij tandartspraktijk lag een tijdschrift hierover waarin een artikel van een test met 3 ai robots,waarvan er 2 een 'vergeet'-pil hadden gekregen om te te laten vergeten of ze een pil hadden gekregen of niet.
Bij de vraag wie nu wel / niet een 'vergeetpil'had gekregen zeiden er 2 niets maar de derde gaf aan het niet te weten. Vervolgens gaf hij aan te kunnen bewijzen dat hij de pil niet had gekregen.
Rudimentair bewustzijn?
Bij de tandartspraktijk 18.01.2024 lag een tijdschrift waarin genoemd werd dat er experimenten waren gedaan met een robot / AI die zich via sensoren en camara's bweust was geworden van zijn eigen lichaam en zodoende kon inschatten wat de impact van beweging was op de omgeving: rudimentaire bewustwording?
Ook werd in het artikel genoemd dat het kunnen creeren van Kunstmatig Bewustzijn belangrijker zou zijn dan een oplossing / medicijn / behandeling voor kanker omdat Kunstmatig Bewustzijn kan er al snel ook zou oplossen...
artificial consciousness research Google Search
AI consciousness: scientists say we urgently need answers (Nature) - Researchers call for more funding to study the boundary between conscious and unconscious systems.
Het is de wetenschap niet bekend of er bewuste AI-systemen zijn of ooit zullen zijn
OpenAI – het bedrijf dat de chatbot ChatGPT heeft gemaakt – streeft ernaar kunstmatige algemene intelligentie te ontwikkelen, een diepgaand leersysteem dat is getraind om een breed scala aan taken uit te voeren van intellectuele taken die vergelijkbaar zijn met wat mensen kunnen doen.
Sommige onderzoekers voorspellen dat dit over 5 tot 20 jaar mogelijk zal zijn. Toch wordt het veld van bewustzijnsonderzoek “weinig ondersteund”, zegt Mason. Hij merkt op dat er, voor zover hij weet, in 2023 geen enkel subsidieaanbod is gedaan om dit onderwerp te bestuderen.
Wat machines nodig hebben? Maar mensen moeten ook rekening houden met de mogelijke behoeften van bewuste AI-systemen, zeggen de onderzoekers. Kunnen dergelijke systemen lijden? Als we niet erkennen dat een AI-systeem bewust is geworden, kunnen we een bewuste entiteit pijn doen, zegt Long:
“We hebben niet echt een goede staat van dienst als het gaat om het uitbreiden van morele overwegingen naar entiteiten die er niet uitzien en niet handelen. zoals wij."
Het ten onrechte toekennen van bewustzijn zou ook problematisch zijn, zegt hij, omdat mensen geen middelen mogen besteden aan het beschermen van systemen die geen bescherming nodig hebben.
Sommige van de vragen die door de AMCS-commentaren worden opgeworpen om het belang van de bewustzijnskwestie te benadrukken, zijn van juridische aard: moet een bewust AI-systeem verantwoordelijk worden gehouden voor een opzettelijke daad van wangedrag? En moeten zij dezelfde rechten krijgen als mensen? De antwoorden vereisen mogelijk wijzigingen in de regelgeving en wetten, schrijft de coalitie.
En dan is er nog de behoefte aan wetenschappers om anderen te onderwijzen. Naarmate bedrijven steeds capabeler AI-systemen bedenken, zal het publiek zich afvragen of dergelijke systemen bewust zijn, en wetenschappers moeten genoeg weten om advies te kunnen geven, zegt Mason.
....dat chatbots zoals ChatGPT zo mensachtig lijken in hun gedrag dat mensen er terecht door in de war raken. Zonder diepgaande analyse door wetenschappers zouden sommige mensen tot de conclusie kunnen komen dat deze systemen bewust zijn, terwijl andere leden van het publiek de zorgen over het AI-bewustzijn zouden kunnen afwijzen of zelfs belachelijk maken.
Om de risico's te beperken, roepen ... regeringen en de particuliere sector op om meer onderzoek naar AI-bewustzijn te financieren. Er zou niet veel geld nodig zijn om het veld vooruit te helpen: ondanks de beperkte steun tot nu toe is er al relevant werk aan de gang. .... andere onderzoekers hebben bijvoorbeeld een checklist met criteria (tabel blz. 5) ontwikkeld om te beoordelen of een systeem een grote kans heeft om bij bewustzijn te zijn. Het artikel , dat in augustus in de arXiv preprint repository werd gepubliceerd en nog niet door vakgenoten is beoordeeld, ontleent zijn criteria aan zes prominente theorieën die de biologische basis van het bewustzijn verklaren. “Er is veel potentieel voor vooruitgang”, zegt Mason.
https://arxiv.org/pdf/2308.08708.pdf Consciousness in Artificial Intelligence: Insights from the Science of Consciousness .pdf 88 blz
Of huidige of toekomstige AI-systemen bewust zouden kunnen zijn, is een onderwerp van wetenschappelijk belang en toenemende publieke bezorgdheid. Dit rapport pleit voor en illustreert een rigoureuze en empirisch gefundeerde benadering van AI-bewustzijn: het in detail beoordelen van bestaande AI-systemen, in het licht van onze best ondersteunde neurowetenschappelijke theorieën over bewustzijn. We onderzoeken verschillende prominente wetenschappelijke theorieën over bewustzijn, waaronder de theorie van recurrente verwerking, de theorie van de globale werkruimte, theorieën van hogere orde, voorspellende verwerking en de theorie van het aandachtsschema. Uit deze theorieën leiden we ‘indicatoreigenschappen’ van bewustzijn af, toegelicht in computationele termen die ons in staat stellen AI-systemen op deze eigenschappen te beoordelen. We gebruiken deze indicatoreigenschappen om verschillende recente AI-systemen te beoordelen, en we bespreken hoe toekomstige systemen deze kunnen implementeren. Onze analyse suggereert dat er geen huidige AI-systemen bewust zijn, maar suggereert ook dat er geen duidelijke technische barrières zijn voor het bouwen van AI-systemen die aan deze indicatoren voldoen.
Theorie van terugkerende verwerking
RPT-1: Invoermodules die algoritmische herhaling gebruiken
RPT-2: Invoermodules die georganiseerde, geïntegreerde perceptuele representaties genereren
Globale werkruimte theorie
GWT-1: Meerdere gespecialiseerde systemen die parallel kunnen werken (modules)
GWT-2: Werkruimte met beperkte capaciteit, met zich meebrengend een knelpunt in de informatiestroom en een selectief aandachtsmechanisme
GWT-3: Mondiale uitzending: beschikbaarheid van informatie in de werkruimte voor alle modules
GWT-4: Staatsafhankelijke aandacht, waardoor de capaciteit ontstaat om de werkruimte te gebruiken om achtereenvolgens modules op te vragen om complexe taken uit te voeren
Computationele theorieën van hogere orde
HOT-1: Generatieve, top-down of luidruchtige perceptiemodules
HOT-2: Metacognitieve monitoring die betrouwbare perceptuele representaties onderscheidt van ruis
HOT-3: Keuzevrijheid geleid door een algemeen systeem voor overtuigingsvorming en actieselectie , en een sterke neiging om overtuigingen bij te werken in overeenstemming met de uitkomsten van metacognitieve monitoring
HOT-4: Schaarse en soepele codering die een ‘kwaliteitsruimte’ genereert
Aandachts schema theorie
AST-1: Een voorspellend model dat controle over de huidige staat van aandacht vertegenwoordigt en mogelijk maakt
Voorspellende verwerking
PP-1: Invoermodules die gebruik maken van voorspellende codering
Agentschap en uitvoering
AE-1: Agentschap: leren van feedback en output selecteren om doelen na te streven, vooral waar dit een flexibel reactievermogen op concurrerende doelen impliceert
AE-2: Uitvoering: modellering van output inputcontingenties, inclusief enkele systematische effecten, en gebruik van dit model bij perceptie of controle.
...we overwegen of sommige specifieke bestaande AI-systemen de indicatoreigenschappen bezitten. Deze omvatten
Transformer-gebaseerde grote taalmodellen en de Perceiver-architectuur, die we analyseren met betrekking tot de globale werkruimtetheorie.
We analyseren ook de Adaptive Agent van DeepMind, een versterkende leeragent die opereert in een virtuele 3D-omgeving; een systeem dat is getraind om taken uit te voeren door het besturen van een virtueel knaagdierlichaam; en
PaLM-E, dat is beschreven als een “belichaamd multimodaal taalmodel”.
We gebruiken deze drie systemen als casestudies om de indicatoreigenschappen met betrekking tot agency en belichaming te illustreren. Dit werk suggereert niet dat enig bestaand AI-systeem een sterke kandidaat is voor bewustzijn.
Update 18.01.2024