Inteligența artificială (AI) nu mai este doar un termen la modă, ci o tehnologie implementată pe scară largă în diverse industrii.
Totuși, utilizarea instrumentelor bazate pe AI, în special cele care operează cu date publice, implică riscuri semnificative, avertizează Cristian-Andrei Panțir, Head of Marketing al Adecco EEMEA, în cadrul emisiunii ZF Live.
„Resursele şi toolurile AI care folosesc date publice pot aduce riscuri de securitate majoră la adresa companiilor. Multe dintre ele preferă să dezvolte instrumente şi resurse pentru a fi folosite doar în interiorul companiei. Instrumentele AI pot fi folosite pentru copywriting, proof reading sau traducere, dar utilizatorii trebuie să fie atenţi la faptul că partea de culegere a datelor este viciată de datele disponibile”, a explicat Cristian-Andrei Panțir.
Instrumente precum ChatGPT, care se bazează pe date preluate de pe internet, pot furniza informații eronate, subliniază acesta. De aceea, utilizatorii trebuie să verifice cu atenție validitatea informațiilor oferite de astfel de soluții pentru a evita greșelile.
Soluții personalizate pentru siguranță și productivitate
În fața riscurilor de securitate, tot mai multe companii mari aleg să dezvolte soluții proprii de inteligență artificială, adaptate nevoilor specifice ale afacerii și utilizate exclusiv intern.
„Există foarte multe companii mari care din momentul în care a început să se discute de AI au investit în soluţii proprii şi adaptarea tehnologiei la specificul companiei pentru a creşte productivitatea. Tot ele sunt cele care sunt promotoarele ideii de a folosi responsabil resursele AI”, a adăugat Cristian Panțir în cadrul emisiunii realizate de Ziarul Financiar.
Pe lângă riscurile de securitate, integrarea AI în procesele interne rămâne o prioritate pentru companii, având ca principal obiectiv creșterea eficienței și a productivității.