Scrisoare-manifest: Cercetătorii, îngrijorați că dezvoltarea iresponsabilă a tehnologiei ar face ca sistemele de inteligență artificială să obțină conștiință

inteligenta artificiala robot

Mai mulți experți au semnat o scrisoare deschisă în care își exprimă îngrijorarea față de dezvoltarea iresponsabilă a tehnologiei. Sistemele de inteligență artificială care ar putea deveni capabile de sentimente sau de conștiință de sine riscă să fie afectate dacă tehnologia este dezvoltată iresponsabil, potrivit unei scrisori deschise semnate de practicieni și experți AI, inclusiv Sir Stephen Fry.

Peste 100 de experți au propus cinci principii pentru efectuarea unei cercetări responsabile în conștiința AI, deoarece progresele rapide cresc îngrijorarea tuturor.

Principiile includ prioritizarea cercetării privind înțelegerea și evaluarea conștiinței în IA, pentru a preveni „maltratarea și suferința”.
Celelalte principii sunt: ​​stabilirea de constrângeri în dezvoltarea sistemelor AI conștiente; adoptarea unei abordări treptate pentru dezvoltarea unor astfel de sisteme; partajarea constatărilor cu publicul; și abținerea de la a face declarații înșelătoare sau prea încrezătoare despre crearea unei AI conștiente, potrivit The Guardian.

Semnatarii scrisorii includ cadre universitare precum Sir Anthony Finkelstein de la Universitatea din Londra și profesioniști în inteligența artificială de la companii precum Amazon și grupul de publicitate WPP.

Scrisoarea a fost publicată împreună cu o nouă lucrare de cercetare care subliniază principiile. Lucrarea susține că sistemele AI conștiente ar putea fi construite în viitorul apropiat – sau cel puțin unele care dau impresia că sunt conștiente.

„Se poate întâmpla ca un număr mare de sisteme conștiente să poată fi create și provocate să sufere”, spun cercetătorii, adăugând că, dacă sistemele AI puternice ar fi capabile să se reproducă, ar putea duce la crearea unui „număr mare de ființe noi care merită considerație morală”.

Lucrarea, scrisă de Patrick Butlin de la Universitatea Oxford și Theodoros Lappas de la Universitatea de Economie și Afaceri din Atena, adaugă că chiar și companiile care nu intenționează să creeze sisteme conștiente vor avea nevoie de linii directoare în cazul „creării din neatenție a entităților conștiente”.

Există o incertitudine și un dezacord larg răspândit cu privire la definirea conștiinței în sistemele AI și dacă este chiar posibil să se atingă așa ceva, dar experții spun că este o problemă pe care „nu trebuie să o ignorăm”.

Alte probleme abordate de experți se concentrează pe ce trebuie făcut cu un sistem AI dacă este definit ca un „pacient moral” – o entitate care contează moral „în propriul drept, de dragul său”. În acest scenariu, se întreabă dacă distrugerea IA ar fi comparabilă cu uciderea unui animal.

Lucrarea, publicată în Journal of Artificial Intelligence Research, a avertizat, de asemenea, că o credință greșită că sistemele AI sunt deja conștiente ar putea duce la o risipă de energie politică, deoarece se fac eforturi greșite pentru a le promova bunăstarea.

Lucrarea și scrisoarea au fost organizate de Conscium, o organizație de cercetare parțial finanțată de WPP și co-fondată de directorul AI al WPP, Daniel Hulme.

Anul trecut, un grup de cadre universitare senior a susținut că există o „posibilitate realistă” ca unele sisteme AI să devină conștiente și „semnificative din punct de vedere moral” până în 2035.

În 2023, Sir Demis Hassabis, șeful programului de inteligență artificială al Google și câștigător al premiului Nobel, a declarat că sistemele de inteligență artificială nu sunt „cu siguranță” conștiente în prezent, dar ar putea fi în viitor.

„Filozofii nu s-au hotărât încă cu o definiție a conștiinței, dar dacă ne referim la un fel de conștientizare de sine, la acest tip de lucruri, cred că există o posibilitate ca AI să devină conștientă într-o zi”, a spus el într-un interviu pentru postul american CBS.

Distribuie:

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *