생성형 AI와 ESG의 관계는 최근 몇 년 간의 기술 발전과 기술의 지속 가능성에 대한 관심이 맞물리며 점점 더 큰 주목을 모으고 있다. 산업 전반에서 혁신을 일으키며 기회와 도전을 동시에 제공하는 생성형 AI가 우리의 일상에 자리한 지금, 마냥 편리하다고 AI기술을 무한정 누려도 되는 것일지 의문을 가지기 좋은 타이밍이다.
탄소 배출 vs 탄소 감축, AI 기술 효과의 양면성
환경 측면에서 보면, 생성형 AI가 엄청난 전력 소모로 환경에 부담을 주고 있다는 지적을 무시할 수 없다. AI 모델 훈련을 위해서는 데이터 센터에서 수많은 서버를 돌려야 한다. 이 과정에서 탄소 배출이 늘어나는 문제 때문에 AI 기술의 발전과 환경 이슈가 맞물리게 된다. 최근 중국의 '딥시크(DeepSeek)'라는 AI 모델이 저비용·고효율을 내세우며 주목받기도 했다. 그렇지만 AI산업 전반의 데이터 센터 전력 사용은 급증하고 있어 환경 문제가 도마에서 내려오기는 쉽지 않은 상황이다. 특히 화석연료 의존도가 높은 지역에서 전기를 끌어다 쓰면 탄소 발자국이 더 커질 수밖에 없다.
반면, 생성형 AI가 온실가스 배출원을 분석해 기업의 탄소 감축 전략을 세우는 데 기여하고 있다는 소식도 동시에 들리고 있다. 또한 AI는 지속 가능한 제품의 기획, 설계에 기여할 수도 있다. 따라서 단순히 생성형 AI가 환경에 폐를 끼친다는 부정적 생각으로만 기우는 것은 맞지 않다.
프라이버시 논란과 사회 문제 해결 가능성이 공존
사회적 측면에서는 데이터 프라이버시와 윤리문제가 남아 있다. 글로벌 차원으로 뜨거운 관심을 모았던 딥시크 같은 AI모델이 사용자 데이터를 중국 서버에 저장한다는 의혹으로 논란에 휩싸였고, 우리나라에서는 딥시크 접속이 차단되기도 하는 해프닝이 있었다. 이런 사례는 AI기술에 대한 소비자 신뢰와 사회적 책임에 직결되는 문제이기도 한다. 더불어 AI의 잘못된 데이터 학습으로 인종이나 성별 차별 등의 편향된 결과를 낳을 수 있으며, 진보한 딥페이크 기술은 범죄로 이어질 위험성이 있다. ESG 차원에서 사회적 책임은 개인 정보 보호나 공정한 기술 사용과도 연결되기 때문에 AI기술의 이런 문제점들에 주목할 필요가 있다.
우려되는 일들과 반대되는 사례도 있다. 마이크로소프트의 ‘AI for Good’ 같은 프로젝트는 AI를 활용해 질병진단, 공중 보건 개선이나 인권 증진에 기여하며 AI의 긍정적인 사회적 영향을 지속적으로 보여주고 있다.
정보 투명성 강화에 기여…책임 소재 불분명과 데이터 보안 문제는 숙제
지배구조 측면으로 보면 AI가 규제 준수 여부를 실시간 모니터링 하는 등의 방식으로 기업 투명성을 높이는 데 기여할 수 있다. 물론 데이터 보안 문제로 인해 지배구조에 리스크를 안길 위험도 공존한다. 부정적인 결과를 막기 위해 글로벌 기업들은 디지털 ESG에 대한 새로운 기준을 도입하며 AI 시대에 맞는 투명한 운영 방식을 찾아 나서기 시작했다.
이처럼 생성형 AI와 ESG라는 주제는 뗄 수 없는 관계가 됐다. 환경 차원에서 보면 탄소 배출 부담과 효율성 향상이라는 양면성이 있고, 사회적으로는 프라이버시 논란과 사회 문제 해결의 가능성을 동시에 안고 있다. 지배구조에서는 윤리와 투명성을 강화하는 도구로 작용할 가능성이 있다. AI 개발과 활용 중 ESG차원의 영향을 고려하는 것은 단순한 트렌드에 편승하는 것이 아닌, 필수 고려 과제이다. 향후 AI기술의 생산자와 소비자들이 이 균형을 어떻게 맞춰갈지 주시해야 한다.
by Editor. N