OpenAI po përballet me kritika pas raportimeve se u ka kërkuar kontraktorëve të saj të ngarkojnë materiale reale pune nga role të mëparshme, si pjesë e proceseve të vlerësimit dhe përmirësimit të modeleve të inteligjencës artificiale. Praktika, e përshkruar nga disa kontraktorë në kushte anonimiteti, ka ndezur diskutime të forta për privatësinë e të dhënave profesionale dhe rrezikun e shkeljes së marrëveshjeve të konfidencialitetit.
Sipas këtyre burimeve, kontraktorëve u kërkohet të dorëzojnë shembuj pune të krijuar më herët dokumente, kode, drafte ose materiale të tjera — që pasqyrojnë aftësitë e tyre profesionale. Qëllimi i deklaruar është të sigurohen shembuj autentikë nga bota reale, të cilët mund të ndihmojnë në rafinimin e sistemeve të AI-së dhe në vlerësimin më të saktë të cilësisë së rezultateve.
Megjithatë, pikërisht “autenticiteti” i këtyre materialeve është bërë burim shqetësimi. Në shumë raste, puna e mëparshme është krijuar në kontekste ku pronësia intelektuale u përket punëdhënësve ose klientëve, dhe përdorimi i saj jashtë atij kuadri mund të bie ndesh me kontrata të nënshkruara më herët. Ekspertë të privatësisë dhe juristë të fushës paralajmërojnë se, edhe kur materialet nuk përmbajnë sekrete tregtare të qarta, ato mund të ekspozojnë procese, metoda ose të dhëna të ndjeshme. Raportimet sugjerojnë se OpenAI u kërkon kontraktorëve të shmangin ngarkimin e informacioneve të klasifikuara ose konfidenciale. Por kritikët theksojnë se kufiri mes “shembullit të pranueshëm” dhe shkeljes së konfidencialitetit është shpesh i paqartë, duke e zhvendosur barrën e përgjegjësisë te individët. Kjo, sipas tyre, i vendos kontraktorët në një pozicion të vështirë ligjor dhe etik.
Nga ana e saj, OpenAI nuk ka dhënë ende një sqarim të detajuar publik për këtë praktikë. Kompania ka theksuar më herët rëndësinë e trajnimit të përgjegjshëm të modeleve dhe respektimin e rregullave të privatësisë, por pa hyrë në hollësi mbi mënyrën se si verifikohet burimi dhe leja e materialeve të ngarkuara. Çështja vjen në një moment kur industria e AI-së po përballet me kontrolle gjithnjë e më të rrepta mbi të dhënat e përdorura për trajnim. Ndërsa kompanitë kërkojnë shembuj sa më realistë për të përmirësuar performancën, rasti ngre një pyetje thelbësore: si mund të balancohet nevoja për të dhëna cilësore me mbrojtjen e privatësisë dhe të drejtave të pronësisë intelektuale?















































Discussion about this post