ChatGPT și consultanța de mediu: poți avea încredere?
Inteligența artificială este tot mai des utilizată pentru activități din domeniul consultanței de mediu — de la redactarea memoriilor de prezentare (Anexa 5E) și a fișelor de prezentare, până la gestionarea evidenței deșeurilor sau interpretarea reglementărilor de mediu. Totuși, întrebarea esențială rămâne: poți avea cu adevărat încredere într-o inteligență artificială atunci când este vorba despre responsabilități reale față de mediu și legislație?
Ce face, de fapt, un consultant de mediu
Un consultant de mediu trebuie să știe exact ce documentație este necesară pentru obținerea avizelor, acordurilor sau autorizațiilor de mediu. El trebuie să înțeleagă specificul fiecărui proiect, să se asigure de corectitudinea documentațiilor întocmite și să prezinte proiectul în cadrul Comisiei de Analiză Tehnică (CAT).
În acest context, precizia, experiența și responsabilitatea sunt esențiale — iar aici, inteligența artificială are încă limite semnificative.
Ce NU poate face ChatGPT în consultanța de mediu
Din experiența practică, se poate observa că ChatGPT nu poate întocmi corect un memoriu de prezentare (Anexa 5E) pentru obținerea acordului de mediu, mai ales în cazul proiectelor amplasate în situri Natura 2000. De asemenea, nu poate redacta o fișă de prezentare adaptată corespunzător activității supuse autorizării și nu oferă întotdeauna informații actualizate privind legislația de mediu, întrucât baza sa de date nu reflectă cele mai recente modificări legislative. Mai mult decât atât, poate crea confuzii prin trimiterea la acte normative care nu mai sunt în vigoare.
Unele documentații de mediu — precum bilanțul de mediu, memoriile de prezentare pentru proiecte amplasate în situri Natura 2000 sau rapoartele de mediu — trebuie întocmite și semnate de un expert de mediu atestat, lucru pe care inteligența artificială nu îl poate face în prezent.
Totodată, ChatGPT nu are experiență practică și nici responsabilitate legală. În consultanța de mediu, aceste aspecte sunt cruciale. Un algoritm nu poate merge pe teren, nu poate evalua starea biodiversității, dotările aferente desfășurării activității sau ce trebuie remediat pentru a fi conform cu legislația de mediu astfel încât să nu plătești amenzi în cazul unui control al Gărzii de Mediu. Fără date reale, orice concluzie este o presupunere bazată pe text, nu pe realitate și poate da erori care să ducă la respingerea documentațiilor și amenzi de mediu.
Modelul poate genera răspunsuri plauzibile, dar fundamental greșite. Iar într-un domeniu unde o singură cifră eronată sau o formulare ambiguă pot duce la amenzi, procese sau chiar daune ecologice, astfel de erori sunt inacceptabile. În plus, o inteligență artificială nu poate fi trasă la răspundere pentru un raport incorect. Etica și responsabilitatea deciziilor de mediu rămân exclusiv în sarcina omului. AI-ul nu are valori morale, ci doar algoritmi de predicție bazate pe texte existente.
Concluzie
ChatGPT nu poate fi considerat un consultant de mediu, cel mult poate doar un asistent digital. Are potențialul de a sprijini activitatea specialiștilor, oferind idei, structuri de documente sau explicații generale, dar nu poate înlocui expertiza umană.
În consultanța de mediu, unde greșelile pot costa timp, bani și credibilitate, inteligența artificială trebuie utilizată cu prudență, sub supravegherea unui profesionist și cu discernământ.
Redactat de: ChatGPT și expert de mediu atestat Mihaela Iliuțeanu
(ChatGPT la tastatură, Mihaela Iliuțeanu la responsabilitate)