» » » » » » Aspecte etice ale cercetării folosind Big Data

Aspecte etice ale cercetării folosind Big Data

Matrix

Provocările etice ridicate de cercetarea care utilizează Big Data pot părea descurajante; riscurile sunt atât reale, cât și substanțiale. Cu toate acestea, oportunitățile sunt, de asemenea, excelente, iar cu o colecție crescândă de îndrumări și exemple, este posibil să se urmărească multe astfel de oportunități într-o manieră etică.

Etica se referă la standardele de bine și rău care prescriu ceea ce trebuie să facem, de regulă ghidate de îndatoriri, drepturi, costuri și beneficii. În etica cercetării, aceste relații implică cercetători, participanți și publicul. Există numeroase ghiduri, cum ar fi Cadrul de etică al cercetării din 2016 al ESRC. Există, de asemenea, mai multe coduri generale, cum ar fi Raportul Belmont din 1978, care identifică principiile de bază ale respectului pentru persoane, bunăstarea și justiția în cercetarea subiecților umani și Convenția europeană mai generală a drepturilor omului sau CEDO, ratificată în 1953.

Etica cercetării pentru cercetarea socială cu Big Data

Un raport al OECD (2013) privind Big Data a identificat formele de date importante folosite cel mai frecvent pentru cercetarea socială ca date administrative, înregistrări ale tranzacțiilor comerciale, medii sociale și alte date de pe internet, date geospațiale și date de imagine.

Aceste date diferă de datele tradiționale de cercetare (de exemplu, sondaje), deoarece nu au fost generate în mod specific de către cercetători în scopuri de cercetare. Drept urmare, protecțiile etice obișnuite aplicate la mai multe puncte din ciclul de viață al datelor de cercetare nu au avut loc:

• Colectarea de date nu a făcut obiectul niciunui proces formal de examinare etică, de exemplu, comitete de etică în cercetare sau consilii de evaluare instituțională.
• Protecțiile aplicate atunci când datele sunt colectate (de exemplu, consimțământul informat) și procesate (de ex., de-identificare) nu vor fi implementate.
• Utilizarea datelor pentru cercetare poate să difere substanțial de scopul inițial pentru care a fost colectat (de exemplu, date pentru îmbunătățirea asistenței medicale directe utilizate ulterior pentru cercetare), iar acest lucru nu a fost anticipat atunci când au fost generate date.
• Datele sunt mai puțin deținute sub formă de colecții discrete. Valoarea Big Data constă în capacitatea de a acumula, și de a pune în legătură și de a lega multe surse de date.

Relația dintre curatorii de date și producătorii de date este adesea indirectă și variabilă. Un raport recent al OECD (2016) susține că această relație este adesea mai slabă sau inexistentă, Big Data limitând capacitatea depozitarilor de a desfășura activități-cheie pentru gestionarea în siguranță a datelor personale sau sensibile.

Principalele aspecte etice ale cercetării sociale cu Big Data

Intimitate

Confidențialitatea este recunoscută ca un drept uman în baza numeroaselor declarații și tratate. Confidențialitatea subiectelor de cercetare poate fi protejată printr-o combinație de abordări: limitarea datelor colectate; modificarea datelor să fie mai puțin informative; și reglementarea accesului la date. Dar Big Data pot evita aceste proceduri existente:

• Definițiile „privat” și „confidențialitate” sunt ambigue sau contestate în multe contexte de cercetarea de date.
• Sunt spațiile sociale publice sau private? Unele, cum ar fi Twitter, par publice mai implicit, în timp ce Facebook este mai privat.
• Mulți utilizatori cred și acționează ca și cum setarea este mai privată decât este, cel puțin așa cum se specifică în acordurile de utilizare ale multor platforme sociale media. Este suficientă respectarea acordurilor oficiale în astfel de cazuri?
• Unele abordări ale cercetării etice depind de posibilitatea de a distinge fără echivoc utilizatorii și uzanțele publice sau private. Cu toate acestea, costurile de date și complexitatea analitică conduc la colaborări mai strânse între organizațiile publice și private, diminuând astfel aceste distincții.
• Există dezbateri cu privire la faptul că știința datelor ar trebui să fie clasificată ca o cercetare a subiecților umani și, prin urmare, este scutită de preocupările – cum ar fi viața privată – care se bazează pe drepturile omului.

Consimțământ informat

Problema etică a consimțământului se datorează faptului că, în analizele de date mari, foarte puține pot fi cunoscute despre utilizările viitoare intenționate ale datelor atunci când sunt colectate. Cu o asemenea incertitudine, nici beneficiile, nici riscurile nu pot fi înțelese în mod semnificativ. Astfel, este puțin probabil ca consimțământul obținut în momentul colectării datelor (o singură dată) să îndeplinească o definiție strictă a „consimțământului informat”. De exemplu, există proceduri pentru consimțământul „larg” și „generic” de a împărtăși datele genomice, care sunt criticate pe motiv că acest consimțământ nu poate fi semnificativ în lumina riscurilor tehnologiilor genetice viitoare necunoscute În 2002, O’Neill a remarcat modul în care această limitare a consimțământului nu este nouă, și că utilizarea datelor pentru astfel de scopuri diferite și scara posibilelor daune fac mai problematic lucrul cu date mari.

Chiar dacă aceste aspecte conceptuale sunt minimizate (sau ignorate), persistă provocări practice.

• Obținerea consimțământului în cunoștință de cauză poate fi imposibilă sau poate fi costisitoare din cauza unor factori precum scara sau incapacitatea de a contacta persoanele vizate în mod privat.
• Valabilitatea consimțământului obținut prin acordul termenilor și condițiilor este discutabilă, în special atunci când acordul este obligatoriu pentru a accesa un serviciu.

De-identificarea

Din păcate, nu există definiții robuste, unanim acceptate pe plan internațional pentru termenii ”de-identificare”, ”anonimizare” și ”pseudoanonimizare”. În general, se consideră că un set de date este de-identificat dacă elementele care ar putea identifica imediat o persoană sau o organizație au fost eliminate sau mascate. În parte, deoarece o serie de legi relevante, cum ar fi legislația privind protecția datelor, definesc tratamente diferite pentru datele identificabile și care nu pot fi identificate, multe s-au bazat pe capacitatea de a face această distincție. În ciuda acestei situații juridice, recunoașterea este în creștere că astfel de distincții devin mai puțin sustenabile.

• Identificabilitatea este văzută din ce în ce mai mult ca un continuum, nu binar.
• Riscurile de divulgare cresc cu dimensionalitatea (adică numărul de variabile), legarea mai multor surse de date și puterea analizei datelor.
• Riscurile de dezvăluire pot fi atenuate, dar nu eliminate.
• De-identificarea rămâne un instrument vital pentru reducerea riscului de dezvăluire, ca parte a unei abordări mai ample privind asigurarea utilizării în siguranță a datelor.

Inegalitate – Diviziune digitală

Deși avantajele scării în multe domenii sunt clare (de exemplu, îngrijiri medicale), unii văd riscuri în acumularea de date la o scară nouă, cu puterea implicată dacă datele sunt ținute în instituții publice sau private. Din motive de amploare și complexitate, un număr relativ mic de entități au infrastructuri și abilități de a dobândi, deține, procesa și beneficia de date mari.

• În timp ce întrebarea despre cine deține datele este una legală, consecințele inegalității pun întrebări etice.
• Cine poate accesa datele? În principiu, orice cercetător poate accesa Twitter prin API-ul său, însă costurile și abilitățile necesare prezintă bariere de acces.
• Cine guvernează accesul la date? Din ce în ce mai mult, datele cu riscuri de prezentare a informațiilor pot fi curate, cu acces permis prin mecanisme de guvernare, cum ar fi comitetele. Este accesul real la fel de deschis? Cum este documentat acest lucru?

Sursa: Libby Bishop (2017). Big data and data sharing: Ethical issues. UK Data Service, UK Data Archive.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *