» » » » » » Poate o mașină să aibă minte, conștiință și stări mentale?

Poate o mașină să aibă minte, conștiință și stări mentale?

postat în: Mintea 0
Sophia
Sursa https://en.wikipedia.org/wiki/File:Sophia_at_the_AI_for_Good_Global_Summit_2018_(27254369347)_(cropped).jpg

(Sophia, un robot umanoid. )

Aceasta este o întrebare filosofică, legată de problema altor minți și de problema dificilă a conștiinței. Întrebarea se învârte în jurul unei poziții definite de John Searle drept „inteligența artificială (IA) puternică”:

  • Un sistem de simboluri fizice poate avea o minte și stare mentală.

Searle a distins această poziție de ceea ce el a numit „IA slabă”:

  • Un sistem de simboluri fizice poate acționa inteligent.

Searle a introdus termenii pentru a izola IA puternicî de IA slabă, astfel încât el ar putea să se concentreze asupra a ceea ce el a considerat că este problema mai interesantă și discutabilă. El a susținut că, chiar dacă presupunem că avem un program de calculator care să acționeze exact ca o minte umană, va exista încă o întrebare filosofică dificilă la care trebuia să se răspundă.

Nici una dintre cele două poziții ale lui Searle nu este de mare importanță pentru cercetarea IA, deoarece acestea nu răspund direct la întrebarea „poate o mașină să aibă inteligență generală?” (cu excepția cazului în care se poate arăta și faptul că conștiința este necesară pentru inteligență). Turing a scris: „Nu doresc să dau impresia că cred că nu există niciun mister despre conștiință … Nu cred că aceste taine trebuie neapărat rezolvate înainte de a răspunde la întrebarea dacă mașinile pot gândi.” Russell și Norvig sunt de acord: „Majoritatea cercetătorilor din IA consideră ipoteza IA slabă ca fiind de la sine acceptată, și nu le pasă de ipoteza IA puternice”.

Există câțiva cercetători care cred că conștiința este un element esențial în inteligență, cum ar fi Igor Aleksander, Stan Franklin, Ron Sun și Pentti Haikonen, deși definiția lor de „conștiință” se îndepărtează foarte mult de „inteligență”.

Înainte de a răspunde la această întrebare, trebuie să fie clar ce înțelegem prin „minte”, „stări mentale” și „conștiință”.

Conștiință, minte, stări mentale, înțeles

Cuvintele „minte” și „conștiință” sunt folosite de diferite comunități în moduri diferite. Unii gânditori new age, de exemplu, folosesc cuvântul „conștiință” pentru a descrie ceva similar cu „elanul vital” al lui Bergson: un fluid invizibil și energic care pătrunde în viață și în special în minte. Scriitorii de literatură științifico-fantastică utilizează cuvântul pentru a descrie o anumită proprietate esențială care ne face umani: o mașină sau un străin care este „conștient” va fi prezentat ca un caracter complet uman, cu inteligență, dorințe, voință, înțelegere, mândrie și așa mai departe. (Scriitorii de literatură științifico-fantastică utilizează de asemenea cuvinte ca „sentiment”, „sapiența”, „conștiința de sine” sau „fantoma”, pentru a descrie această proprietate umană esențială. Pentru alții, cuvintele „minte” sau „conștiință” sunt folosite ca un fel de sinonim laic pentru suflet.

Pentru filosofi, neurologi și oameni de știință cognitivi, cuvintele sunt folosite într-un mod mai precis și mai ludic: se referă la experiența familiară, de zi cu zi, a unui „gând în cap”, precum o percepție, un vis, intenție sau un plan, și la modul în care știm ceva sau semnificăm ceva, sau înțelegem ceva. „Nu este greu să dai o definiție comună a conștiinței” observă filozoful John Searle. Ceea ce este misterios și fascinant nu este atât de mult ce este, ci cum este: cum o bucată de țesut gras și energie electrică dă naștere la această experiență (familiară) de percepție, înțeles sau gândire?

Filosofii numesc aceasta problema dificilă a conștiinței. Este cea mai recentă versiune a unei probleme clasice în filosofia minții numită „problema minte-corp”. O problemă asemănătoare este problema sensului sau înțelegerii (pe care filosofii o numesc „intenționalitate”): care este legătura dintre gândurile noastre și despre ceea ce gândim (adică obiecte și situații aflate în lume)? A treia problemă este problema experienței (sau fenomenologiei): dacă două persoane văd același lucru, au aceleași experiențe? Sau există lucruri „în interiorul capului” (numite „qualia”) care pot fi diferite de la o persoană la alta?

Neurobiologii cred că toate aceste probleme vor fi rezolvate pe măsură ce vom începe să identificăm corelațiile neuronale ale conștiinței: relația reală dintre mecanismul din capul nostru și proprietățile sale colective; cum ar fi mintea, experiența și înțelegerea. Unii dintre cei mai aspri critici ai inteligenței artificiale sunt de acord că creierul este doar o mașină și că conștiința și inteligența sunt rezultatul proceselor fizice din creier. Întrebarea filosofică dificilă este următoarea: poate un program de calculator, care rulează pe o mașină digitală care amestecă cifrele binare de zero și unu, să duplice capacitatea neuronilor de a crea minți, cu stări mentale (cum ar fi înțelegerea sau perceperea) și, în cele din urmă, experiența conștiinței?

Argumente că un computer nu poate avea minte și stări mentale

Camera chineză a lui Searle

John Searle ne cere să luăm în considerare un experiment de gândire: să presupunem că am scris un program de calculator care trece testul Turing și demonstrează „acțiune inteligentă generală”. Să presupunem, în mod special că programul poate conversa în chineză fluent. Scrieți programul pe carduri 3×5 și le dați unei persoane obișnuite care nu vorbește chineză. Blocați persoana într-o cameră și puneți-o să urmeze instrucțiunile de pe carduri. Ea va copia caracterele chinezești și le va introduce și scoate din cameră printr-un slot. Din exterior, poate părea că în camera chineză există o persoană complet inteligentă care vorbește chineză. Întrebarea este următoarea: există cineva (sau ceva) în cameră care înțelege chineza? Asta este, există ceva care are starea mentală de înțelegere sau care are o conștiență conștientă despre ceea ce se discută în limba chineză? Omul evident nu știe. Camera nu poate fi conștientă. Cardurile cu siguranta nu știu. Searle concluzionează că acea cameră chineză sau orice alt sistem de simboluri fizice nu poate avea minte.

Searle continuă să susțină că stările psihice reale și conștiința au nevoie de „proprietățile fizico-chimice reale ale creierului uman real”. El susține că există „proprietăți cauzale” speciale ale creierului și neuronilor care dau naștere la minte: în cuvintele sale „creierul provoacă mințile”.

Argumente înrudite: moara lui Leibniz, schimbul de telefon a lui Davis, națiunea chineză a lui Block și Blockhead

Gottfried Leibniz a formulat, în esență, același argument ca și Searle în 1714, folosind experimentul gândirii de a extinde creierul până la dimensiunea unei mori. În 1974, Lawrence Davis și-a imaginat duplicarea creierului folosind linii telefonice și birouri cu personalități, iar în 1978 Ned Block a imaginat întreaga populație a Chinei implicată într-o astfel de simulare a creierului. Acest experiment de gândire este numit „Națiunea chineză” sau „Sala de sport chineză”. Ned Block a propus, de asemenea, argumentul lui Blockhead, care este o versiune a camerei chineze în care programul a fost re-inclus într-un set simplu de reguli ale formularului „vezi asta, fă ​​aia”, eliminând tot misterul din program.

Răspunsuri la camera chineză

Răspunsurile la camera chineză pun în evidență mai multe puncte diferite.

  • Răspunsul sistemelor și răspunsul minții virtuale: Acest răspuns susține că sistemul, inclusiv omul, programul, camera și cărțile, sunt ceea ce înțelege chineza. Searle susține că omul din cameră este singurul lucru care poate „avea minte” sau „înțelege”, dar alții nu sunt de acord, argumentând că este posibil să existe două minți în același loc fizic, similar cu modul în care un computer poate fi „simultan” două mașini deodată: una fizică (ca un Macintosh) și una „virtuală” (ca un procesor de text).
  • Răspunsurile la viteză, putere și complexitate: Câțiva critici arată că omul din cameră ar avea nevoie probabil de milioane de ani să răspundă la o întrebare simplă și ar avea nevoie de „dulapuri de depozitare” de proporții astronomice. Aceasta aduce îndoială clarității intuiției lui Searle.
  • Răspunsul robotului: Pentru a înțelege cu adevărat, unii cred că camera chineză are nevoie de ochi și de mâini. Hans Moravec scrie: „Dacă am putea altoi un robot la un program de raționament, nu am avea nevoie de o persoană care să mai ofere sensul: ar proveni din lumea fizică”.
  • Răspunsul simulatorului de creier: Ce se întâmplă dacă programul simulează secvența de combustii nervoase la sinapsele unui creier real al unui vorbitor actual chinez? Omul din cameră ar simula un creier real. Aceasta este o variație a „răspunsului sistemelor” care pare mai plauzibil deoarece „sistemul” funcționează în mod clar ca un creier uman, ceea ce întărește intuiția că există ceva în afară de omul din cameră care ar putea înțelege limba chineză.
  • Răspunsul altor minți și răspunsul la epifenomene: Câțiva oameni au observat că argumentul lui Searle este doar o versiune a problemei altor minți, aplicată mașinilor. Din moment ce este dificil să se decidă dacă oamenii „gândesc” de fapt, nu ar trebui să fim surprinși că este dificil să se răspundă la aceeași întrebare despre mașini.

O întrebare conexă este dacă „conștiința” (așa cum o înțelege Searle) există. Searle susține că experiența conștiinței nu poate fi detectată prin examinarea comportamentului unei mașini, a unei ființe umane sau a oricărui alt animal. Daniel Dennett subliniază că selecția naturală nu poate păstra o caracteristică a unui animal care nu are niciun efect asupra comportamentului animalului și astfel conștiința (așa cum o înțelege Searle) nu poate fi produsă prin selecție naturală. Prin urmare, fie selecția naturală nu a produs conștiință, fie „IA puternică” este corectă, deoarece conștiința poate fi detectată prin testul Turing proiectat corespunzător.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *