[번역] 저널리즘의 생성형 AI: 생성형 정보 생태계에서 뉴스 작업과 윤리의 진화
소개
2022년 말, OpenAI가 ChatGPT를 출시하면서 사람들이 미디어를 만들고 소비하는 방식을 뒤바꿀 수 있는 생성형 AI의 잠재력은 대중과 뉴스 업계의 상상력을 사로잡았습니다.
생성형 AI는 학습된 데이터와 사용자가 입력한 지시에 따라 텍스트, 이미지, 오디오, 비디오 또는 기타 미디어와 같은 새로운 콘텐츠를 생성할 수 있는 인공지능 기술의 일종입니다. ChatGPT는 채팅 기반 사용자 인터페이스로, 출시 두 달 만에 1억 명의 사용자를 확보하며 생성형 AI의 힘과 잠재력을 많은 사람들에게 알렸습니다.
다른 대형 기술 회사들도 자체 AI 모델로 경쟁하기 위해 빠르게 몰려들었습니다: 구글의 바드와 제미니, 앤트로픽의 클로드, 마이크로소프트의 코파일럿, 메타의 LLaMA와 같은 오픈 소스 제품이 있습니다.
또 퍼플렉시티와 같은 새로운 검색 제품, 아크와 같은 브라우저 경험, 기술을 통합하고 최종 사용자가 정보를 생성하거나 정보를 접하는 방식을 변화시키는 어도비의 파이어플라이와 포토샵 같은 인터페이스 등을 꼽을 수 있습니다.
이 기술은 2018년부터 사용되어 왔지만, 2022년 말에 이르러 갑자기 다양한 제품에 통합되면서 생산성과 새로운 경험을 위한 다양한 기회뿐만 아니라 정확성, 출처 및 출처 증명, 잘못된 정보 생성 가능성 증가에 대한 심각한 우려도 제기되고 있습니다.
2023년 내내 뉴스 업계는 이 모든 새로운 기술이 뉴스 수집, 제작 및 배포 관행, 제품 및 사용자 경험, 이미 불안정한 비즈니스 모델, 지적 재산의 가치에 어떤 영향을 미칠지 파악하기 위해 분주히 움직였습니다. 소셜 미디어가 가져온 혼란 이후, 시청자들이 앞으로 어떻게 정보를 소비하고 상호작용할지에 대한 이해가 다시 한 번 도전 과제로 떠오르고 있습니다.
뉴스룸에서의 GAIN 프로젝트, AI, 미디어 및 민주주의 연구소, 오픈 소사이어티 재단의 저널리즘에서의 AI 챌린지, 로이터 저널리즘 연구소의 생성형 AI에 관한 라운드 테이블, 2023년 중반에 진행된 LSE의 저널리즘 AI 설문조사, 그리고 WAN-IFRA6의 초기 조사, AP의 자체 컨퍼런스 등과 같은 이니셔티브는 모두 기술에 대한 업계의 이해와 저널리즘에 미치는 영향을 발전시키는 데 기여해왔습니다.
이 보고서는 2023년 말까지 업계가 생성형 AI의 초기 약속과 과제에 대해 어떻게 대처해왔는지에 대한 스냅샷을 제공합니다.
그리고 뉴스 업계 종사자 292명을 대상으로 실시한 설문조사를 통해 그들이 생성형 AI를 어떻게 사용하고 있는지, 그리고 앞으로 어떻게 사용할 것인지, 그리고 책임감 있는 사용 개발과 관련된 주요 윤리적, 실용적 이슈는 무엇이라고 생각하는지에 대해 살펴봅니다.
2023년 12월 4일부터 12월 22일까지 3주 동안 설문조사 응답을 수집했으며, AP는 뉴스 조직 실무자의 이메일 목록과 다양한 소셜 미디어 및 슬랙 그룹 게시물을 통해 설문조사를 배포했습니다.
응답자의 81.4%가 생성형 AI에 대해 잘 알고 있다고 답했으며(그림 1 참조), 73.8%는 본인 또는 소속 조직에서 이미 생성형 AI를 어느 정도 사용해 본 경험이 있다고 답했습니다(그림 2 참조). 응답자의 뉴스 업계 근무 연수는 평균 18년으로 집계되었습니다(부록 A 참조).
다시 말해, 이번 설문조사는 보다 전문적이고 노련한 업계 종사자들이 이 기술에 대해 어떻게 반응하고 있는지를 반영하고 있습니다.
표본은 북미(61.7%)와 유럽(24.8%)에서 근무하는 사람들로 크게 치우쳐 있으며 아시아(7.9%), 아프리카(2.8%), 오세아니아(1.7%), 남미(1.0%)에서 근무하는 응답자는 소수에 그쳤습니다.
응답자 중 남성(58.3%)이 과대 대표되었지만, 이는 미디어 업계의 예상 기본 비율과 거의 일치하는 것으로 보입니다. 또한 편집자 직군의 응답자(34.5%)가 가장 많았지만, 임원(20%), 기자(18.3%), 기술자(9.3%), 제품 등 다른 직군이나 여러 직책을 맡고 있는 사람(17.9%)의 응답도 확보할 수 있었습니다. 수집한 샘플에 대한 자세한 내용은 부록 A를 참조하세요.
참가자들의 응답과 분석 결과에 따르면, 생성형 AI는 이미 업무 구조와 조직을 변화시키고 있으며, 사용과 관련하여 윤리적 우려를 불러일으키고 있습니다. 다음은 몇 가지 주요 시사점입니다:
- 뉴스 제작에서의 활용: 현재 생성형 AI의 가장 주된 사용 사례는 다양한 형태의 텍스트 콘텐츠 제작, 정보 수집 및 센싱, 멀티미디어 콘텐츠 제작, 비즈니스 활용 등입니다. 응답자들은 정보 수집 및 감각 형성, 데이터 작업, 비즈니스 활용, 메타데이터 생성에 대한 생성형 AI의 사용 확대에 관심을 보였으며, 챗봇과 개인화를 통한 새로운 사용자 경험 탐색에도 관심을 표명했습니다. 전반적으로 기존 워크플로우를 개선하고 더 효율적으로 만드는 데 관심이 집중되어 있으며, 새로운 경험을 탐색하고 혁신하는 데는 상대적으로 관심이 적었습니다.
- 업무 구조와 조직의 변화: 리더십, 편집, 제품, 법무, 엔지니어링 직군 등 생성형 AI로 인한 변화에 대응하기 위해 새로운 역할이 생겨나고 있습니다. 응답자의 거의 절반이 생성형 AI로 인해 업무나 워크플로우가 이미 변화했다고 답했습니다. 효과적인 프롬프트를 고안하고 결과물을 편집하는 과정에서 새로운 업무가 창출되었습니다. 인지된 효율성 향상은 가변적이며 다양한 일반적인 업무에서 실제 성과 향상을 평가하기 위해서는 추가적인 연구가 필요합니다. 전반적으로 이러한 연구 결과는 교육 이니셔티브와 생산성의 실제 변화를 측정하기 위한 보다 세분화된 평가의 필요성을 강조합니다.
- 업무 재설계: 특히 결과물을 효율적이고 확실하게 확인하고 검증하는 데 필요한 인간의 감독을 가능하게 하는 새로운 인터페이스를 설계하여 생성형 AI로 저널리스트의 작업을 지원할 수 있는 기회가 아직 충족되지 않은 상태입니다. 저널리스트가 다양한 업무에 생성형 AI를 효과적으로 활용하기 위해서는 잘 설계된 편집 인터페이스가 필요합니다. 또한 응답자들은 데이터 및 정보를 분석, 입수 또는 처리하는 작업과 관련하여 생성형 AI의 도움을 받을 의향이 있으며, 이는 우연치 않게도 응답자들이 지루하고 반복적이거나 지루하다고 평가한 업무 활동의 종류와도 일치하는 것으로 나타났습니다.
- 윤리적 우려와 책임: 윤리적 고려사항이 가장 중요하며, 특히 사람의 감독, 정확성, 편견에 대한 우려가 가장 두드러집니다. 업계에서는 퍼블리싱된 콘텐츠 전체를 생성하는 것과 같은 특정 사용 사례에 대한 사용 금지 또는 제한을 포함하여 생성형 AI의 이점과 윤리적 저널리즘 관행의 필요성 사이에서 균형을 맞추는 방법을 고심하고 있습니다. 전반적으로 응답자들은 기술자보다는 편집자, 관리자, 경영진이 생성형 AI의 효과적이고 윤리적인 사용을 보장하기 위해 더 많은 책임을 져야 한다고 생각했습니다.
- 책임감 있는 사용을 위한 전략: 많은 조직에서 생성형 AI의 윤리적 사용을 위한 가이드라인을 개발하거나 따르고 있지만, 윤리적 환경을 효과적으로 탐색하기 위해 보다 명확하고 구체적인 가이드라인, 교육 및 시행이 필요하다는 요구가 있습니다. 가이드라인 외에도 책임감 있는 사용을 지원하기 위해 추가적인 교육이 필요하다는 인식이 확산되고 있습니다. 또한, AI와 자동화를 포함하는 도구의 보다 강력한 조달, 내부 테스트 및 감사 등 책임감 있는 생성형 AI 사용을 개선할 수 있는 다른 전략에 대해서는 거의 언급되지 않고 있습니다.
- 콘텐츠 권리의 양면성: 응답자들은 테크 기업이 뉴스 기관의 콘텐츠에 대해 모델을 훈련시키는 것이 허용되어야 하는지에 대해 어느 정도 불확실성을 표명했으며, 일부는 상업적으로 부정적인 영향을 강조하고 다른 일부는 사회에 도움이 될 수 있는 모델의 정확성과 신뢰성을 향상시켜야 한다고 주장했습니다.
다음 섹션에서는 생성형 AI 시대에 뉴스 작업의 미래가 어떤 모습일지 살펴봅니다. 그런 다음 책임감 있는 저널리즘 관행에 생성형 AI를 도입하기 위해 필요한 윤리적 고려 사항과 접근 방식을 살펴봅니다.
마지막 결론에서는 저널리즘이 사회에 대한 책임이라는 규범과 관행에 부합하면서 이 기술의 가치를 더욱 발전시키고 가장 잘 포착하기 위해 정책, 관행, 연구, 디자인, 교육에 대한 투자가 필요하다고 주장하며 보고서를 마무리합니다.
뉴스워크의 미래
자동화는 종종 AI와 같은 신기술이 현존하는 일자리를 위협하고 사람의 생계를 위협할 수 있다는 불안감을 불러일으킵니다. 생성형 AI 시스템이 기본적인 뉴스 수집 및 작성 작업을 수행할 수 있다면 기자와 편집자를 대체할 수 있을까요?
아니면 이러한 도구는 보완적인 역할을 하며 업무를 보강하는 데 도움이 될까요? 특히 사용자 경험과 기대치가 진화함에 따라 이 모든 것이 뉴스 업계 종사자들의 일자리를 어떻게 변화시킬까요?
설문조사 응답자들은 워크플로우를 보강하고 효율성을 높이기 위해 다양한 작업을 탐색하고 싶어 하지만, 실제 생산성 향상을 입증하기 위해서는 더 많은 연구가 필요하기 때문에 큰 편차가 있습니다.
그러나 생성형 AI가 업무의 구조와 조직을 변화시키고 개인에게 새로운 기술을 습득하도록 압력을 가하는 동시에 조직 내에서 새로운 역할과 기회를 창출하고 있다는 점은 이미 분명합니다.
현재 사용 현황
응답자가 본인 또는 소속 조직에서 생성형 AI를 어느 정도 사용했다고 답한 경우, 어떤 업무에 사용했는지 질문했습니다. 응답은 그림 2에 표시된 보다 광범위한 업무 범주로 나타났습니다.
가장 많이 사용되는 카테고리는 당연히 콘텐츠 제작과 관련된 것이었습니다. 이 범주에는 미디어 형식의 생성, 편집, 변환 등 공개용 또는 뉴스룸 내부 콘텐츠를 제작하는 과정에서 생성형 AI 도구를 사용하는 것에 대한 응답이 포함되었습니다.
구체적으로 응답은 텍스트(69.6%, 181개 응답 중 126개), 멀티미디어(20.4%), 번역(8.8%), 전사(7.2%), 사용자 경험(2.8%), 메타데이터(0.6%)의 6가지 카테고리로 세분화되었습니다.
텍스트 카테고리에서 응답자들은 뉴스 헤드라인, 소셜 미디어 게시물, 뉴스레터, 퀴즈, 데이터의 텍스트, 태그 라인, 스토리 초안 등의 콘텐츠를 생성하는 데 생성형 AI를 사용했다고 답했습니다.
한 응답자는 "개요, 요약, 초안을 작성할 때 AI를 사용합니다."라고 언급했습니다. 또한 기사 카피 편집 및 요약, 다른 매체에 맞게 재작성(예: 스크립트 제작)하거나 전문 용어를 줄이거나 보도자료를 작성할 때, 그리고 사실 확인을 위해 생성형 AI를 사용하기도 했습니다.
응답자들은 또한 일러스트레이션(예: 소셜 미디어 게시물), 비디오, 오디오(예: 텍스트 음성 변환), 이미지 편집과 같은 멀티미디어 콘텐츠를 생성하는 데 제너레이티브 AI를 사용한다고 언급했습니다. 콘텐츠 제작 과정의 일부로 오터나 위스퍼와 같은 도구를 사용한 AI 지원 번역 및 전사도 언급되었습니다. 소수의 응답자는 소비자 대면 챗봇을 만들기 위한 사용자 경험 지원과 이미지의 대체 텍스트 또는 오디오 파일의 메타데이터 작성과 같은 메타데이터 생성 지원을 위해 생성형 AI를 사용한다고 언급했습니다.
생성형 AI의 또 다른 다소 일반적인 용도는 정보 수집 및 센스메이킹(21.5%)입니다. 이 범주에는 뉴스 검색, 연구, 아이디어/브레인스토밍, 큐레이션, 또는 한 응답자의 표현대로 "연구 단계의 자동화, 뉴스 수집 및 알림 시스템"에 AI가 사용되는 방식이 포함됩니다.
또한 코딩(5.0%)은 코드 검토 또는 "HTML 코드 작성 및 수정"과 같은 소프트웨어 개발 작업에 생성형 AI를 사용하는 응답을 포함하며, 데이터 작업(7.7%)은 "스프레드시트 조작"이나 "소규모 데이터 정리 작업"과 같이 데이터를 조작 및 분석하거나 문서에서 추출하는 작업을 포함하는 응답을 포함합니다.
마지막으로 비즈니스(16.6%)는 프레젠테이션 작성, 이메일 작성(예: "영업 잠재 고객에게"), 광고 또는 마케팅 콘텐츠 출력, 검색 엔진 최적화를 위한 자료 출력 등 내부 비즈니스 운영 목적으로 생성 AI를 사용한다는 응답을 수집하기 위해 사용된 카테고리입니다.
열망적인 사용
다음으로, 일부 언론인들이 생성형 AI를 어떻게 사용하고 싶어하는지 더 잘 이해하기 위해 응답자들에게 "생성형 AI가 양질의 결과를 산출할 수 있다면 업무에서 이상적으로 사용하고 싶은 작업 세 가지 이상을 나열해 주세요."라고 질문했습니다. 결과는 아래 그림 4에 나와 있습니다.
응답자들은 그림 3에 표시된 업무 외에도 기획(3.9%), 배포 분석(2.6%), 개인화(1.7%), 레이아웃(1.3%), 가짜 뉴스 탐지(0.9%)를 생성형 AI에 활용하고 싶은 분야로 꼽았습니다.
기획에서는 주로 일상적인 워크플로우와 뉴스 주기 계획을 개선하기 위해 생성형 AI를 활용하고 싶다는 응답이 많았습니다.
개인화의 경우, 응답자들은 독자/사용자 정보를 기반으로 콘텐츠를 맞춤화, 추천 또는 큐레이션(예: '뉴스레터 및 홈페이지 개인화')하기를 원했습니다.
가짜 뉴스 탐지는 진실하지 않은 뉴스 콘텐츠를 식별하고 폭로해야 할 필요성을 반영합니다.
레이아웃은 제작 과정에서 종이 뉴스 레이아웃에 대한 생성형 AI의 도움을 받고자 하는 응답자의 요구를 반영합니다.
배포 분석은 제작 프로세스를 위한 데이터 분석의 필요성과는 다르며, 사용자 참여 데이터 수집 및 분석(예: '웹사이트 분석에 대한 질문에 대한 답변')의 필요성을 포착합니다. 현재 사용량과 비교했을 때, 사용자 경험, 데이터 작업, 정보 수집 및 감각 형성, 메타데이터, 비즈니스 사용 사례와 같은 일부 열망적인 사용 범주에 대한 관심이 증가한 것을 관찰할 수 있습니다.
뉴스 검색, 연구, 아이디어 도출, 큐레이션 등 다양한 보도 관련 활동을 포함하는 정보 수집 및 센싱메이킹에 대한 관심이 절대적으로 가장 많이 증가한 것으로 나타났습니다.
그림 4의 몇 가지 범주에서는 새로운 업무도 관찰되었습니다. 텍스트 콘텐츠 생산으로 확인된 응답에서 응답자들은 고도로 구조화된 형태의 텍스트 생산일 수 있고 자동화에 적합한 이벤트 캘린더 제작에 대해 생성형 AI의 도움이 필요하다고 언급했습니다.
정보 수집 및 센싱의 경우, 다양한 미디어(소셜 미디어, 뉴스 미디어, 지방 정부)를 모니터링 및 스캔하고 뉴스 가치가 있는 정보를 식별할 때 알림을 보내는 기능(예: '현지 시장의 뉴스 스캔' 및 '가능한 출처 식별')에 대한 지원이 더 많이 필요한 것으로 나타났습니다.
몇몇 응답자는 뉴스 취합 및 큐레이션을 위해 AI가 필요하다고 언급했습니다. 멀티미디어 콘텐츠 제작의 경우, 비디오 및 오디오 제작 모드(예: "짧은 비디오 뉴스 설명")에 대한 AI 지원에 대한 요구가 증가했습니다. 또한 사용자 경험을 위한 AI 챗봇 제작(예: "모든 콘텐츠에 대한 인터페이스 역할을 하는 챗봇")을 언급하는 응답이 더 자주 있었습니다.
또한 응답자들에게 저널리즘에서 생성형 AI를 사용할 때 어떤 기회가 있다고 생각하는지 직접 물었고, 이러한 응답은 대부분 희망하는 업무에 대해 이야기한 내용과 일치했습니다.
데이터 분석과 연구를 지원하고, 반복적인 작업을 줄이고 시간을 절약하며, 효율적인 편집을 가능하게 하고, 브레인스토밍을 통해 창의성을 발휘하고 개인화의 새로운 가능성을 모색하기 위해 생성형 AI를 사용하는 데 상당한 관심이 있었습니다. 편집자, 기술자, 경영진의 반응도 비슷했습니다.
효과가 있는 것과 없는 것
응답자들은 시간을 절약하고 효율성을 높일 뿐만 아니라 스토리 발견, 아이디어 생성 또는 브레인스토밍을 통해 창의성을 보강하고 지원하며, 헤드라인과 일러스트를 사용한 콘텐츠 제작, 배경 콘텐츠 수집을 위한 연구, 문서에서 스크랩 및 추출을 위한 데이터 작업, 잠재 고객 확대 등 AI가 도움이 될 수 있는 구체적인 활동에 대해 언급했습니다.
응답자들은 AI가 효과적이지 않다고 생각하는 경우 정확성, 신뢰성, 콘텐츠 품질과 관련된 품질 문제(예: 생성된 헤드라인의 관련성 또는 상업용 대규모 언어 모델이 생성하는 텍스트의 단조로움 등)를 언급하는 경우가 많습니다.
또한 모델을 사용하는 데 절약되는 시간보다 더 많은 시간이 소요되거나 편집과 같은 추가 작업이 필요하고 편향된 텍스트가 출력될 수 있으며 모델을 효과적으로 프롬프트하고 제어하는 데 문제가 있다고 지적하기도 합니다.
일부는 편집과 '필요에 따라 반응하는 프롬프트 제작'에 너무 많은 시간이 소요되어 효율성이 크게 향상되지 않는다는 의견도 있었습니다.
새로운 업무, 새로운 역할
응답자들은 생성형 AI로 인해 새로운 역할이 생겨나고 있다고 언급했습니다.
여기에는 "혁신 책임자", "AI 전문가", "AI 책임자" 등의 리더십 직책, "AI 제품 소유자" 등의 제품 직책, "프롬프트 디자이너/편집자/전문가", "팩트 체커", "AI 비디오 편집자" 등의 편집직과 법률 직책, "소프트웨어 엔지니어", "AI + 자동화 엔지니어", "품질 보증" 등의 엔지니어링 직책이 포함되었습니다.
관리자부터 개인 기여자, 심지어 인턴십에 이르기까지 다양한 직급에서 역할이 언급되었습니다.
새로운 직책 중 일부는 새로운 혁신을 감시하고 변화의 속도를 따라잡는 역할을 맡게 됩니다: 이는 곧 "AI 분야의 격동적인 발전을 모니터링하는 사람"이라고 설명할 수 있습니다.
새로운 편집 직무에는 사실 확인, 프롬프트, 엔지니어링, 사용자 인터페이스 및 경험 설계와 같은 기술적인 역할이 포함됩니다. 전반적으로 사람의 업무가 관리, 제품, 일부 새로운 직책, 그리고 AI와 자동화를 포함한 시스템을 통합하고 유지 관리하는 많은 기술 업무로 이동하고 있습니다.
업무의 변화
응답자의 거의 절반(49%, 181명 중 92명)이 생성형 AI로 인해 업무나 워크플로우가 이미 변화했다고 답했습니다. 업무와 워크플로우가 변화했다고 답한 응답자들은 생성형 AI 모델이 업무의 구조와 조직을 형성했다고 답했습니다.
일부의 경우, 업무의 구조 및 조직적 변화는 이미 CMS, 슬랙 채널 또는 일반적으로 사용되는 오피스 소프트웨어를 통해 반영되고 있습니다.
AI 모델은 공동 작업자로서의 역할을 수행하며 "아이디어를 튕겨내는" 사운드보드로 사용되거나 "놓칠 수 있는 것"을 잡아내는 편집자로 활용됩니다. 한 응답자는 AI가 사람 간의 관계에도 영향을 미칠 수 있다고 말합니다: "제목을 정할 때 동료에게 도움을 요청하는 대신 항상 ChatGPT에 먼저 물어봅니다."
협업자로서의 AI라는 개념은 또한 사람들이 "내 효율성과 생산성을 높일 수 있는 프롬프트가 있는지"를 판단하는 등 위임할 작업을 공식화하는 방법에 대해 고민해야 한다는 것을 의미합니다.
슈퍼마켓의 셀프 서비스 결제 시스템과 마찬가지로 응답자들은 이러한 시스템을 사용할 때 주로 AI의 결과물을 수용 가능한지 확인하기 위해 편집하거나 교정해야 한다는 측면에서 새로운 업무가 창출된다고 말합니다.
한 응답자는 이러한 셀프 서비스 정신이 프리랜서와의 관계에도 영향을 미쳤다고 말했습니다: "기본적인 번역이나 카피라이팅과 같은 특정 업무에 대해서는 프리랜서 고용을 중단했습니다." 한 응답자의 설명처럼 생성형 AI가 뉴스룸 외부에서 점점 더 많이 사용됨에 따라 정보 출처를 평가하는 새로운 편집 작업도 생겨날 수 있습니다: "우리는 AI가 생성한 콘텐츠를 감지하기 위한 프로토콜을 정의해야 했습니다. 외부 작성자로부터 많은 텍스트를 받기 때문에 가드레일을 설치해야 했습니다..."라고 설명했습니다.
효율성에 대한 기대와 실현
생성형 AI를 사용하여 효율성을 높일 수 있다고 응답한 작업에는 이미지 편집, 소스 모니터링, 대체 텍스트 제작, SEO 텍스트 생성, 보도 자료, 이메일, 소셜 미디어 게시물, 텍스트 초안 작성 시간 단축 등이 있었습니다.
한 응답자는 다음과 같이 말합니다: "포토샵의 모든 Gen AI 도구 덕분에 그래픽 팀이 매일 몇 시간씩 시간을 절약할 수 있습니다."
또 다른 응답자는 창의성 지원 측면에서 "컨셉의 수많은 시각적 반복을 빠르게 확인할 수 있어 시간이나 리소스 제약으로 인해 시도하지 못했던 옵션과 아이디어를 쉽게 탐색할 수 있습니다."라고 설명했습니다.
경우에 따라 더 많은 편집, 프롬프트 또는 평가 작업이 발생했음에도 불구하고 많은 응답자들이 작업 및 워크플로우 변경에 대해 이야기하는 방식에 효율성 프레임을 계속 적용하고 있습니다: "주제 아이디어 찾기와 같은 일부 작업은 훨씬 더 빠르게 확장할 수 있습니다."
효율성 향상에 대한 기대와 실제 증거는 종종 생성형 AI를 사용하여 절약한 시간을 다른 활동에 어떻게 재투자할 수 있는지에 대한 이야기와 함께 진행됩니다: "그래픽 팀은 포토샵에서 gen AI를 사용하여 절약한 시간으로 다른 업무에 리소스를 재투자할 수 있습니다."
효율성은 작업의 속도와 반복적인 성격에도 영향을 미칩니다: "프롬프트를 조정하고 더 많은 반복을 생성하는 것이 매우 빠르기 때문에 ... [AI]는 다양한 스타일과 방법을 시도할 수 있는 더 많은 기회를 제공했습니다."
업무 위임
응답자들은 선택한 작업을 동료에게 위임할 경우 그 업무를 어떻게 평가할 것인지에 대해 질문했습니다. 이 질문은 선택한 업무의 성공 기준을 더 잘 이해하기 위해, 그리고 이러한 기준을 알면 AI 시스템에 위임할 경우 업무 성과를 더 잘 평가할 수 있는 방법을 찾을 수 있을 것이라는 생각으로 던졌습니다.
응답은 과제에 따라 큰 차이를 보였습니다. 스토리 발굴 작업에서는 '독창성'과 '관련성'이 중요한 기준이 될 수 있는 반면, 콘텐츠 생성 작업에서는 '명확성'과 '간결성'이 중요할 수 있습니다.
응답자들은 과제를 평가하는 데 도움을 받기 위해 주관적인 개인적 기준과 공식적인 조직(법적 기준 포함) 루브릭을 모두 언급하기도 했습니다. 효율성, 생산성(예: 산출물의 양) 또는 일반적인 유용성과 관련된 기준을 언급한 응답자도 소수 있었지만, 콘텐츠 및 정보의 품질, 다양한 주요 뉴스 가치, 수용자 지향적 요소, 산출물의 확인 또는 검증 가능 여부와 관련된 기준에 대해 논의한 응답자가 더 많았습니다.
콘텐츠 및 정보의 품질에는 명확성, 간결성, 구체성, 시의성, 가독성, 맥락, 완전성/철저성, 출판 가능성 또는 상식 등 다양한 맥락에서 적용될 수 있는 많은 요소가 포함됩니다.
또한 정확성, 타당성(예: 한계 인식), 관련성, 독창성(예: 독점적이거나 놀라운 내용 포함)이라는 뉴스의 가치도 자주 언급되었습니다. 응답자들은 수용자 참여와 사용자 피드백 등의 요소를 언급하면서 수용자가 수용 가능한 수준에서 작업을 수행했다는 것이 무엇을 의미하는지 정의하기 위해 청중을 바라보았습니다.
마지막으로 응답자들은 재현 가능성, 출처, 설명, 사실 확인의 용이성 등의 측면을 포함하여 AI의 결과물을 검증할 수 있는지 또는 확인할 수 있는지에 대해 이야기했습니다.
AI의 도움
또한 응답자들에게 자신이 선택한 업무에서 AI의 도움을 받을 의향이 있는지 물은 다음, 저널리즘과 관련된 일반적인 직업 활동에 따라 분류했습니다.
그림 5를 보면 데이터 또는 정보 분석과 관련된 활동("그렇다" 16명, "아마도" 4명)에 대한 위임에 대한 관심이 높고, 정보 입수("그렇다" 11명, "아마도" 6명, "아니다" 3명)와 정보 처리(그렇다 9명, "아마도" 5명, "아니다" 1명), 조직 외부와의 커뮤니케이션(그렇다 4명, 아마도 3명)10에 대한 관심이 어느 정도 있는 것을 알 수 있습니다.
그러나 창의적 사고(9 "예", 11 "아마도", 8 "아니오"), 의사 결정 및 문제 해결(6 "예", 6 "아마도", 6 "아니오"), 상사, 동료 또는 부하직원과의 내부 커뮤니케이션(2 "예", 4 "아마도", 3 "아니오") 등의 활동에 대해서는 AI의 도움을 받는 것에 대한 저항과 불확실성이 더 큰 것으로 나타났습니다.
AI가 식별된 업무에 도움을 주기를 원한다고 답한 응답자(50%, 186명 중 93명)는 업무의 몇 가지 구체적인 측면을 언급했습니다. 일부는 자동화를 통해 효율성을 높이고, 반복을 줄이거나 정밀도를 높이고, 증강 기능을 통해 업무를 더 잘 수행할 수 있도록 돕거나, 작업을 검토 작업으로 전환하여 더 빨리 확인하고 완료할 수 있기를 원한다고 답했습니다.
이러한 제안은 사람들이 다양한 수준의 자동화에 따라 AI를 어떻게 활용하고자 하는지를 파악하는 데 도움이 되므로 유익합니다. 일부는 실제 자동화를 요구하지만, 대부분은 사람이 계속 제어할 수 있도록 증강 또는 작업 변환을 원합니다.
AI가 특정 업무에 도움을 줄 수 있다고 답한 응답자(32.2%, 186명 중 60명)는 모델의 능력과 정확성, 생성형 AI를 사용하면 기술에 지나치게 의존하게 될지 여부 등 다양한 요인에 대해 불확실성을 표명했습니다.
응답자들은 신뢰성, 인간성, 그리고 제너레이티브 AI 사용에 대한 충분한 보상이 있는지에 대한 문제를 제기했습니다.
또한 응답자들은 기밀 유지와 같은 지적 재산권 및 윤리와 관련된 문제도 제기했습니다. AI의 도움을 받지 않겠다고 답한 응답자(17.7%, 186명 중 33명)는 지식, 능력, 성과, 책임감, 신뢰성, 인간성(예: 인간의 판단이나 인간 대 인간 접촉 또는 관계 필요) 등 기술의 단점과 투자 대비 충분한 보상이 있는지 여부에 초점을 맞췄습니다.
사람들이 AI의 도움을 원하는지 여부를 생각해 볼 수 있는 또 다른 방법은 사람들이 작업을 얼마나 지루하거나 지루하거나 반복적으로 느끼는지 살펴보는 것입니다. 선택한 작업에 대해 응답자에게 "이 작업(또는 작업의 일부)이 어느 정도 지루하거나 반복적이거나 지루하다고 생각하십니까?"라는 질문에 1("전혀 그렇지 않다")에서 4("매우 그렇다")의 척도로 평가하도록 요청했습니다.
전체 업무 활동별로 표로 정리한 결과는 그림 6에 나와 있습니다. 응답자들은 정보 처리, 조직 외부와의 커뮤니케이션, 데이터 또는 정보 분석과 같은 업무가 지루하다는 평균 평가가 높은 반면, 창의적 사고, 정보의 의미 해석, 의사 결정 및 문제 해결과 같은 활동은 훨씬 덜 지루하다고 평가한 것으로 나타났습니다.
구체적인 작업 범주별로 보면 전사 및 메타데이터 생산, 배포 분석, 데이터 작업이 지루함 척도의 상위권에 속하는 것으로 나타났습니다. 이러한 결과는 AI가 어떤 업무 활동에 도움을 줄 수 있다면 작업자 자신의 만족도뿐만 아니라 활동으로 인한 지루함이나 지루함을 완화하는 데 도움이 될 수 있는지에 대한 그림 5의 결과를 뒷받침합니다.
주요 학습 사항 및 기회
뉴스 조직은 이미 텍스트와 멀티미디어에서 전사 및 번역에 이르기까지 콘텐츠 제작에 생성형 AI의 활용을 광범위하게 모색하고 있습니다.
열망적 사용은 정보 수집과 센싱, 데이터 작업, 비즈니스 활용, 메타데이터 생성에 더 많은 유용성을 모색하려는 관심을 반영합니다.
그리고 현재 사용 현황과 열망적 사용 모두 기존 워크플로우를 개선하는 데 중점을 두고 있지만, 챗봇과 개인화를 통해 새로운 사용자 경험을 만드는 데 대한 관심이 증가하고 있다는 징후가 있습니다.
동시에, 모든 열망적 사용 사례가 챗봇에 적합한 것은 아니며, 이는 챗봇의 기능에 대한 잠재적인 오해를 반영합니다. 예를 들어 콘텐츠 레이아웃이나 사용자 분석 분석과 같은 작업은 최적화 알고리즘이나 규칙 기반 자연어 생성 시스템과 같은 비생성 AI 시스템에서 가장 잘 수행할 수 있습니다.
응답자들이 AI의 도움을 받기를 바라는 업무 활동을 평가할 때, 정보를 얻거나 처리하는 것, 데이터 또는 정보 분석이 수요가 있고 중간 정도에서 높은 수준의 지루함을 인식하는 핵심 영역이라는 점은 더 나은 프롬프트, 인터페이스, 워크플로우를 개발할 수 있는 잠재적 기회를 시사하는 것이 분명합니다.
그러나 콘텐츠 제작에 대한 상당한 관심과 활동이 있는 곳에서도 생성형브 AI가 얼마나 생산성을 높일 수 있는지에 대한 의문은 여전히 남아 있습니다. 워크플로우와 역할은 이미 변화하고 있으며, 많은 경우 모델을 효과적으로 프롬프트하고 결과물을 편집하는 과정에서 새로운 업무가 생겨나고 있습니다.
어떤 업무는 전반적으로 도움이 될 수 있지만 어떤 업무는 그렇지 않을 수도 있습니다. 추가 연구를 통해 시간이 지남에 따라 특정 업무를 연구하여 성과를 평가하고 새로운 역할이 전체 조직에서 어떻게 진화하고 서로 관련되는지 조사할 수 있습니다.
또 다른 기회는 저널리스트에게 프롬프트를 통해 모델을 효과적으로 제어하는 방법을 교육하는 데 더 많은 투자를 하는 것입니다. 한 응답자는 다음과 같이 언급했습니다: "더 길고 정교한 프롬프트를 작성하는 데 더 많은 시간과 생각을 투자하면 훨씬 더 나은 결과를 얻을 수 있습니다."
또한 이번 조사 결과는 생성형 AI로 저널리즘 업무를 지원하는 새로운 인터페이스를 설계할 수 있는 기회가 있음을 시사합니다. 업무를 위임할 때 작업 품질을 평가하는 데 사용되는 기준을 설명할 때 응답자들은 정보의 품질과 검증 가능성을 주요 차원으로 꼽았습니다.
저널리스트들은 여전히 스스로를 생성형 AI의 결과물에 대한 편집자이자 검사자로 여기고 있으며, 이는 이러한 검사를 장려하고 효율적인 편집과 검증을 가능하게 하는 도구와 인터페이스를 만들 수 있는 기회를 시사합니다.
예를 들어, 여기에는 분석의 복제 가능성을 지원하는 세부 정보, 숫자, 사실 또는 출처에 대한 출처, 또는 결과물을 평가하는 데 도움이 될 수 있는 일반적인 설명이 포함될 수 있습니다. 저널리스트가 제너레이티브 AI를 효과적으로 사용하기 위해 필요한 것은 아마도 인간의 감독을 지원하는 잘 설계된 편집 인터페이스일 것입니다.
응답자들이 생성형 AI의 도움을 받는 것에 대해 망설이는 이유를 살펴보면 기술 테스트 및 평가 또는 추가적인 인터페이스 디자인 작업을 통해 해결할 수 있는 역량, 성능, 효율성 향상 또는 신뢰성과 같은 몇 가지 차원이 있을 수 있다는 것을 알 수 있습니다. 또한 인간 동료에게 위임하든 AI 시스템에 위임하든 작업의 성공 기준을 명확히 하면 작업이 충분히 높은 수준의 품질로 수행되는지 평가하는 방법을 알 수 있습니다.
도움을 주저하는 이유와 성공적인 위임의 기준을 작업별로 고려하면 문제를 극복하고 허용 가능한 성능 수준을 벤치마킹하는 엔지니어링 설계 접근 방식에 정보를 제공할 수 있습니다. 예를 들어 기밀 유지가 우려되는 사용 사례의 경우 로컬 또는 조직 소유 인프라에서 모델을 실행하면 이러한 주저함이 완화될 수 있습니다.
동시에 모델 책임성 또는 '인간성' 문제와 같은 일부 차원은 기술의 본질적이고 불변하는 한계입니다.
윤리적 고려 사항
새로운 기술은 종종 저널리즘의 과정과 결과물에 영향을 미쳤습니다. 생성형 AI도 예외는 아니어서 저널리스트와 미디어 전문가에게 도전과제와 윤리적 고려 사항을 제시합니다. 여기에는 소스 자료, 지적 재산권 문제, 이러한 기술에 내재된 편견과 관련된 문제가 포함되지만 이에 국한되지 않습니다. 다음 하위 섹션에서는 책임감 있는 관행 개발의 윤리적 측면에 초점을 맞춰 도전 과제와 우려 사항을 살펴봅니다.
윤리적 사용에 대한 우려와 과제
응답자들에게 저널리즘에서 생성형 AI를 사용할 때 윤리적 우려가 있는지 물었습니다. 가장 두드러진 우려는 인간의 감독 부족(21.8%, 174명 중 48명), 부정확성(16.4%, 174명 중 36명), 편향성(9.5%, 174명 중 21명)이었습니다. (그림 7 참조)
인간의 감독 부족은 제너레이티브 AI가 인간의 감독 없이 사용될 것이라는 믿음을 뒷받침합니다. 응답자들은 결과물이 편집자의 검토를 받는다면 크게 걱정하지 않는다고 답한 반면, 한 응답자는 "기자가 직접 정보를 검증하거나 그에 따른 대가를 치러야 한다고 생각한다"고 언급했습니다.
생성형 AI가 잘못된 정보를 많이 생산할 수 있기 때문에 오보나 허위 정보 등 부정확한 정보에 대한 우려도 있었습니다: "저널리즘에서 AI에 대한 우려의 공백이 매우 큽니다. 잘못된 정보, 가짜 이미지, 나쁜 기사, 끔찍한 문법, 일자리 손실 등 모든 것이 우려됩니다."
응답자들은 생성형 AI의 입력과 출력에 (숨겨진) 편견이 포함될 수 있다는 사실을 알고 있다고 답한 만큼 편견 또한 두드러진 우려 사항입니다. "숨겨진 편견과 부정확성이 가장 큰 우려 사항입니다. 기사 작성은 사람이 해야 하고, 자료 수집 역시 검증이 훨씬 더 어렵더라도 사람이 해야 합니다."라고 한 응답자는 지적했습니다.
다른 우려는 저널리즘 콘텐츠 제작에 생성형 AI를 사용할 때 발생할 수 있는 잠재적 위험, 특히 뉴스의 질적 저하와 침식(7.7%, 174명 중 17명)을 강조했습니다.
응답자들은 독자 수익을 통해 콘텐츠를 직접 수익화하는 것이 점점 더 중요해지고 있는 이 시점에 너무 많은 AI 콘텐츠가 저널리즘의 가치를 떨어뜨릴 것이라고 우려했습니다.
응답자들은 뉴스 업계 종사자들이 ChatGPT나 바드(현재 제미니)와 같은 모델을 사용했는지 여부를 공개하지 않을 것을 우려하면서 생성형 AI 사용의 투명성 부족(6.8%, 174명 중 12명)을 언급했습니다. 이 외에도 실직의 위협(6.8%, 174명 중 12명), 표절의 위험(3.2%, 174명 중 7명), 독창성 부족(2.7%, 174명 중 6명) 등이 우려되는 사항으로 꼽혔습니다. 저작권 문제(2.7%, 174명 중 6명)와 개인정보 및 데이터 보호(1.8%, 174명 중 4명)에 대한 우려는 상대적으로 덜 언급되었습니다.
또한 응답자들은 윤리적 문제를 해결하는 과정에서 겪는 몇 가지 어려움을 공식화하도록 요청받았습니다. 응답자들은 가장 큰 어려움 중 하나로 교육 부족(18.2%, 196명 중 36명)을 꼽았습니다. 교육이 필요한 사항으로는 직원들에게 생성형 AI의 모범 사례와 위험에 대한 교육이 있었습니다.
다른 응답자들은 소규모 조직은 교육에 투자할 자원이 충분하지 않을 수 있다고 말합니다: "교육도 좋지만 교육에 투자하는 시간은 저널리즘에 투자하지 않는 시간이며, 소규모 조직은 그럴 여유가 없습니다." 즉, 응답자들은 생성형 AI 혁신에 대한 준비가 충분하지 않다는 느낌뿐만 아니라 교육에 투자할 시간이 충분하지 않다는 점을 더 걱정하고 있는 것으로 보입니다.
또 다른 문제는 규정과 가이드라인이 마련되어 있지 않다는 점(11.1%, 196명 중 22명)이었는데, 한 응답자는 다음과 같이 말했습니다: "도구를 사용할 때 어떤 것을 확인해야 하는지에 대한 기본적인 가이드라인이 있어야 합니다."
마지막으로 품질 관리의 부재(8.1%, 196명 중 16명)에 대한 우려가 두드러졌는데, 응답자들은생성형 AI의 결과물이 충분히 검증되지 않을 것이라고 우려했습니다. 한 응답자는 다음과 같이 말합니다: "AI를 사실적으로 검증할 수 있는 '표준 직원'이 없는 것이 걱정됩니다. 실제 사람이 뉴스 표준을 집행한다는 것을 보여줄 수 있다면 뉴스 조직이 더 신뢰할 수 있을 것"이라고 말했습니다.
응답자들은 이러한 우려와 도전에 책임감 있게 대처하기 위한 잠재적 관문으로 금지해야 할 사용을 결정하는 것(15.5%, 196명 중 34명)을 꼽았는데, 이에 대해서는 다음 섹션에서 자세히 설명합니다.
사용 금지
응답자들에게 저널리즘에서 제너레이티브 AI를 사용하지 말아야 할 분야가 있는지 물었습니다. 윤리적 우려에 대한 대응의 일환으로 금지를 언급한 응답자 중 대다수는 생성형 AI가 아직 이 작업에 대해 신뢰할 수 있는 모델이 아니기 때문에 전체 콘텐츠 생성을 금지해야 한다는 데 동의했습니다(55.8%, 34명 중 19명).
한 응답자는 다음과 같이 말했습니다: "콘텐츠 제작에 사용되는 모든 제너레이티브 AI는 우려스럽습니다. 우리는 제너레이티브 AI를 경찰 스캐너처럼 생각합니다. 정보를 수집하는 데 사용하지만 여전히 직접 확인하고 신고 여부를 결정합니다."라고 말했습니다. 또한 저널리즘에는 기계가 적절히 수행할 수 없는 기술이 필요하며, 생성형 AI의 결과물에는 환각이 포함될 수 있다는 일반적인 믿음에 기반한 구체적인 금지 조치입니다.
이 외에도 인터뷰 질문 생성(17.6%, 34명 중 6명)과 정확성과 진정성에 대한 우려로 인해 생성형 AI를 사용하여 아티스트의 스타일을 복제하는 것(17.6%, 34명 중 6명) 등이 금지되어야 할 잠재적 사용 사례로 제시되었습니다.
한 응답자는 궁금해합니다: "인터뷰는 기자의 본능 때문에 중간에 기어를 바꾸는 경우가 많습니다. AI가 어떻게 그런 점을 보완할 수 있을까요?"
몇몇 응답자는 저널리즘의 신뢰와 진실성에 대한 저널리즘의 약속과 상충되므로 오도하거나 속이기 위한 콘텐츠 제작에 생성 AI를 사용하는 것을 금지해야 한다고 제안했습니다(8.8%, 34명 중 3명). 한 응답자는 다음과 같이 말합니다: "편집자와 기자에 대한 독자의 신뢰를 저버리는 텍스트, 이미지 또는 기타 독자를 향한 정보를 생성해서는 안 됩니다."
또한 일부 응답자는 지역 뉴스 보도와 탐사 보도에 생성형 AI를 사용하지 말아야 한다고 제안했는데, 이는 AI가 이러한 저널리즘적 노력에 필요한 미묘한 이해나 윤리적 판단력을 갖추지 못했다는 인식을 강조한 것입니다.
이러한 금지 제안은 저널리즘에서 생성형 AI를 사용하는 일부 형태가 용납될 수 없다는 새로운 믿음이 생겨나고 있음을 시사합니다. 즉, 실제 생산성 향상에 대한 우려 외에도 윤리적 고려 사항과 저널리즘의 역할에 대한 대중의 기대가 특정 업무에 생성형 AI 사용을 자제해야 하는 또 다른 중요한 이유가 될 수 있습니다.
물론 이 설문조사는 단편적인 결과일 뿐이며, 생성형 AI가 저널리즘의 일상과 역할에 보다 확고하게 통합된 후에 이 주제를 다시 살펴볼 가치가 있을 것입니다. 응답자들은 저널리즘 기준을 지키고, 잘못된 정보로부터 보호하며, 뉴스 제작에서 인간의 판단과 윤리적 고려의 역할을 우선시하기 위한 뉴스룸 내 공동의 노력을 강조하고 있습니다. 응답자들은 가이드라인을 마련하는 것이 이러한 저널리즘 기준을 지키는 데 기여할 수 있다고 강조합니다.
윤리적 사용을 위한 전략
그림 8에서 볼 수 있듯이 윤리적 우려와 과제를 극복하기 위해 가장 많이 언급된 전략은 생성형 AI를 사용하지 않는 것(20.0%, 145명 중 29명)이었습니다. 즉, 응답자 5명 중 1명은 생성형 AI를 윤리적으로 사용하기 위한 전략으로 아예 사용하지 않는 것이라고 답했습니다.
이는 윤리적 문제가 뉴스룸에서 생성형 AI를 배포하는 데 중요한 장애물이 될 수 있음을 의미합니다. 한 응답자는 다음과 같이 언급합니다: "제 업무에서 제너레이티브 AI를 사용하는 것은 비윤리적이라고 생각합니다."
또 다른 전략은 기존 가이드라인과 법적 프레임워크를 준수하는 것입니다(14.5%, 145명 중 21명). 한 응답자는 다음과 같이 말합니다: "우리는 AI로 생성된 콘텐츠/정보에도 우리가 게시하거나 의존하는 다른 모든 콘텐츠와 동일한 기준을 적용합니다. 우리는 그것을 이해하고 그것을 사용하기로 한 우리의 결정을 지지할 수 있어야 합니다."라고 말합니다.
가이드라인을 참고하는 전략에 이어 개인의 도덕적 잣대와 직감에 의존하는 전략(8.3%, 145명 중 12명)이 뒤를 이었습니다.
응답자들은 생성형 AI 사용을 전면 금지하는 것 외에도 사용을 제한하고(8.3%, 145명 중 12명) 결과물을 검증해야 한다(15.2%, 145명 중 22명)고 강조했습니다.
응답자들은 테스트용으로만 사용하며 "다른 알려진 자료와 비교하여 정확성을 측정한다"고 강조합니다. 또한 응답자들은 사람의 감독과 철저한 사실 확인이 필요하다고 강조합니다. 한 응답자는 다음과 같이 말했습니다: "우리는 사실성, 투명성, 공정성, 책임성과 같은 편집의 핵심 가치에 크게 의존하고 있습니다.
이러한 가치는 거의 80년 동안 우리 저널리즘의 토대가 되어 왔습니다. 이러한 가치들은 윤리적 프레임워크를 만드는 데 이상적으로 적합합니다."
일부 조직에서는 도입을 고려하기 전에 저작권 및 지적 재산권 문제를 해결할 수 있는 생성형 AI의 추가 발전을 기다리고 있습니다. 뉴스룸 환경에서 생성형 AI와 관련된 문제를 해결하기 위해 준비, 주의, 사전 조치를 취하는 조직이 혼재되어 있습니다. 동시에 모든 뉴스 조직이 이러한 윤리적 우려와 과제를 극복하기 위한 전략을 갖추고 있는 것은 아니라는 응답도 있었습니다.
가이드라인도 중요하지만 내부의 직감과 도덕적 나침반도 중요한 역할을 합니다. AI 및 자동화를 포함하는 도구의 책임 있는 조달, 내부 테스트, 감사, 입력 내용 검증 등 생성형 AI의 책임 있는 사용을 개선할 수 있는 다른 전략은 거의 언급되지 않았습니다.
가이드라인
대부분의 응답자(61.2%, 170명 중 104명)가 저널리즘에서 생성형 AI의 사용과 관련된 다양한 가이드라인을 알고 있지만, 구체적인 지식과 도입 여부는 조직마다 차이가 있었습니다.
일부 응답자는 가디언, NPR, BBC, AP와 같은 뉴스 매체의 가이드라인과 EU의 AI 법 또는 영국의 AI 백서와 같은 규제 프레임워크에 대해 잘 알고 있다고 답했습니다.
조직에 자체 가이드라인이 있다고 답한 응답자도 있었습니다(42.3%, 170명 중 72명). 기존 가이드라인의 공통된 주제는 투명성, 사람의 감독, 콘텐츠 제작에 생성 AI를 사용하지 않거나 아예 금지하는 등 윤리적 문제와 도전 과제를 반영하고 있습니다.
가이드라인을 만드는 방식에는 다양한 접근 방식이 있는데, 일부 조직에서는 실무 그룹을 구성하여 생성 AI 가이드라인을 수립하는 상향식 접근 방식을 채택하는 반면, 기존 업계 표준이나 가이드라인에 의존하는 하향식 접근 방식을 취하는 조직도 있습니다. 또한 소수의 응답자는 자율 규제와 함께 또는 가이드라인 문서의 형태로 (생성형) AI 사용에 대한 업계 전반의 표준이 마련되어야 한다고 답했습니다.
설문조사 결과는 가이드라인을 정기적으로 검토하고 최신 발전하는 생성형 AI에 맞게 조정해야 한다는 점을 강조합니다. 응답자들은 많은 가이드라인의 수준이 높다고 답했습니다. 실무자에게 의미 있는 지침이 되도록 구체화 및 운영화할 필요가 있습니다. 사용 사례에 대한 명확한 설명이나 허용 또는 금지해야 할 특정 제너레이티브 AI 도구에 대한 요청이 응답에 포함되었습니다.
일부 응답자는 청중에게 공개해야 할 생성형 AI의 용도를 언급하고 AI가 생성한 콘텐츠의 특정 편향성을 해결하는 것이 중요하다고 강조했습니다. 집행의 어려움과 실험과 규제 사이의 균형에 대한 필요성도 응답자들이 필수적인 요소로 지적했습니다. 한 응답자는 다음과 같이 말했습니다: "AI가 진화함에 따라 이는 흑백 문제가 아닙니다. 테스트와 실험을 위한 여지가 있어야 합니다."
또 다른 응답자는 다음과 같이 언급했습니다: "명확한 규칙이라기보다는 판단의 문제입니다. 또한 어느 정도까지만 시행할 수 있습니다. 특정 문단이 AI에 의해 생성되었는지 어떻게 확실히 알 수 있을까요?"
응답자들은 가이드라인에 보다 구체적인 내용을 추가하기 위한 잠재적인 해결책으로 가이드라인의 외부 및 내부 버전을 포함시키는 것을 언급했습니다. 내부 가이드라인 문서는 금지된 프로세스와 사용해야 하는 특정 소프트웨어 애플리케이션에 대한 정보를 제공하는 등 보다 상세한 경향이 있습니다.
외부 가이드라인은 보다 광범위한 원칙에 초점을 맞춰 더 높은 수준으로 제시되는 경우가 많으며, 청중에게 투명성을 제공하는 데 더 중점을 둡니다. 자체 가이드라인이 있다고 답한 조직 중 22.8%(응답자 70명 중 16명)는 별도의 내부 버전이 있다고 답했습니다.
가이드라인을 마련하는 것은 생성형 AI의 책임감 있는 사용을 위한 하나의 요건일 뿐이라고 한 응답자는 말합니다: "우리는 운전하면서 길을 닦고 있다고 생각합니다. 새로운 기술이 폭발적으로 쏟아져 나오고 있고, 새로운 '놀라운' AI 도구가 좌우로 쏟아져 나오는 세상을 헤쳐나가고 있는 중입니다."
책임자는 누구인가요?
가이드라인에 초점을 맞추면 책임 있는 사용을 보장하기 위해 생성형 AI 사용자에게 책임을 부여하는 것처럼 보이지만, 응답자들에게 기자, 편집자/관리자, 기술 공급업체, 경영진, 직원 기술자, 법무 부서, 노조 등 저널리즘에서 제너레이티브 AI의 책임 있는 사용을 보장할 수 있는 다양한 이해관계자에게도 순위를 매기도록 요청했습니다.
각 응답자는 저널리즘에서 생성형 AI의 책임 있는 사용을 보장하는 데 있어 각 이해관계자의 역할을 1부터 8까지 평가했으며, 1은 더 큰 책임이 있음을 나타냅니다(그림 9 참조).
전반적으로 응답자들은 편집자와 관리자가 AI의 윤리적 사용을 보장하는 데 가장 큰 책임이 있다고 답했으며(평균 2.5점), 경영진(평균 3.3점)과 기자(평균 3.8점)가 그 뒤를 이었습니다. 응답자들은 노조(평균 6.2점)와 기술 공급업체(평균 5.6점)가 AI의 책임 있는 사용을 보장할 책임이 적다고 생각하는 경향이 있었습니다.
학습 데이터로서의 뉴스 콘텐츠
응답자들은 다른 기업이 언론사의 디지털 보도 및 정보에 대해 AI 모델을 학습시키는 것을 허용해야 한다고 생각하는지 물었습니다. 가장 많은 응답자가 이 질문에 '아마도'라고 답해(53.6%, 166명 중 87명) 의견이 엇갈리는 것으로 나타났습니다.
한 응답자는 이렇게 말합니다: "이론적으로는 좋은 아이디어처럼 들리지만 콘텐츠 사용 방식을 통제할 수 없다고 생각하면 무섭습니다. (...). 열심히 일하는 기자들의 어깨 위에서 거대 테크 기업이 이익을 얻는 것이 공정한가요?"
응답자들은 AI 도구의 수익 창출과 발전 가능성을 인정하면서도 지적 재산과 저널리즘의 무결성을 보호하기 위해 저작권 문제, 투명성, 책임에 대한 신중한 고려가 필요하다고 강조합니다. 또한 데이터 사용 방식과 원저작자에게 적절한 저작자 표시가 제공되는지 여부에 대한 투명성과 책임성이 필요합니다.
다른 응답자는 다음과 같이 언급합니다: "좋은 인풋은 좋은 아웃풋을 의미합니다. 뉴스는 검증되고 높은 수준의 콘텐츠입니다. '어쩌면'은 적절한 보상과 테크 기업이 안전 송금을 진지하게 고려하는 것입니다."
다른 기업이 자사의 디지털화된 정보로 모델을 훈련시키는 것을 허용하는 것에 반대하는 사람들(32.5%, 166명 중 54명)은 저작권 침해, 독점 콘텐츠의 무단 사용, 뉴스 조직의 경쟁력과 지속가능성에 미칠 수 있는 부정적인 영향에 대해 우려를 표명했습니다.
편향성, 잘못된 정보, 저널리즘에 대한 대중의 신뢰 상실에 대한 우려와 함께 가치 있는 데이터를 보상이나 사용 통제 없이 제공하는 것에 대한 공정성에 대한 회의론도 제기되고 있습니다.
한 응답자는 이렇게 말합니다: "왜 그럴까요? 수익을 창출하고자 하는 기업이 우리 콘텐츠가 필요하다면 비용을 지불하거나 수익을 공유하면 됩니다. 다른 사람의 저작물을 가져다가 자신의 이익을 위해 사용하는 것은 단순한 절도 행위입니다."
기업이 디지털화된 아카이브를 학습할 수 있도록 허용해야 한다고 주장하는 응답자(13.9%, 166명 중 23명)는 이러한 협업을 통해 AI 모델의 정확성과 신뢰성을 개선하여 뉴스 산업과 사회에 도움이 될 수 있다고 주장합니다.
협업은 전문적이고 윤리적인 기준을 준수하면서 정확하고 사실에 입각한 콘텐츠를 생산하기 위해 필수적인 것으로 여겨집니다. 또한 응답자들은 수익 창출의 잠재력과 기자들에게 실질적인 혜택이 있다는 점을 강조하며, 공동 작업에서 투명성과 저작권 준수의 중요성을 강조했습니다.
전반적으로 일부 응답자들은 AI 학습을 위한 뉴스 데이터 접근을 허용하는 것이 저널리즘의 무결성과 법적 고려 사항을 존중하면서 AI 기반 저널리즘의 품질을 향상시킬 수 있는 상호 이익이 되는 노력으로 보고 있습니다.
주요 학습 사항 및 기회
설문조사 결과에 따르면 응답자들은 생성형 AI 사용에 대해 다양한 윤리적 우려를 가지고 있는 것으로 나타났습니다. 심지어 응답자의 약 4분의 1은 이러한 윤리적 우려 때문에 생성형 AI를 사용하지 않거나 제한적으로만 사용한다고 답했습니다. 이러한 윤리적 고려 사항과 과제를 해결하는 것은 책임감 있는 생성형 AI 구현을 위해 필수적입니다.
가장 시급한 우려는 통제력 상실 또는 사람의 감독 부족과 관련이 있습니다. 다른 주요 우려 사항으로는 결과물의 품질(정확성, 편향성, 독창성, 투명성)에 관한 것이었습니다.
그다지 눈에 띄지 않는 우려 사항으로는 저작권 문제나 일자리 이동이 있었는데, 이는 응답자 중 이 기술로 인한 일자리 상실을 걱정하는 사람이 거의 없음을 시사합니다.
하지만 이러한 결과는 응답자의 구성과 조직 내 역할에 따라 영향을 받았을 수도 있습니다. 그다지 눈에 띄지 않는 다른 우려는 생성형 AI를 사용할 때 내부(뉴스 조직 내부)와 외부(시청자 대상) 모두에서 투명성이나 공개가 부족하다는 것이었습니다. 생성형 AI 사용을 금지해야 한다고 답한 응답자 중 대다수는 전체 콘텐츠의 생성을 언급했습니다.
그 외에도 정확성과 진정성에 대한 우려로 인해 제너레이티브 AI를 사용하여 인터뷰 질문을 생성하고 아티스트의 스타일을 복제하는 것도 금지되어야 한다고 응답했습니다.
이러한 우려를 극복하기 위한 방안에 대한 질문에 응답자 5명 중 1명은 생성형 AI를 보다 책임감 있게 사용하기 위한 교육이 필요하다고 언급했습니다. 즉, 응답자들은 현재 생성형 AI 전환에 대한 준비가 충분하지 않다고 느끼고 있을 뿐만 아니라 교육에 대한 여지와 투자가 충분하지 않다는 점을 더 걱정하고 있는 것으로 보입니다.
적어도 유럽의 경우, 곧 시행될 AI 법에서는 미디어 조직과 같은 제공업체와 전문 사용자가 기술이 사용되는 맥락을 고려하여 직원의 AI 리터러시를 보장하기 위한 조치를 취해야 할 의무가 있을 것입니다.
또한 응답자 10명 중 1명은 가이드라인 마련의 중요성을 강조했습니다.
언급된 우려 사항은 생성형 AI를 도구로 사용하는 것과 밀접한 관련이 있는 것으로 나타났습니다. 또한, 우려되는 것으로 알고 있지만 응답자들이 전혀 언급하지 않은 문제를 보고하는 것도 중요합니다.
생성형 AI에 대한 대중의 담론에서는 AI의 환경과 생태 발자국, 착취적 노동 관행과 AI 노동자의 노동 조건, 점점 커지는 권력 불균형과 대형 테크 기업에 대한 미디어의 의존, 사회적 불의와 차별적 대우가 더욱 강화될 위험, 인류의 실존적 위협에 대한 더욱 경고적인 목소리가 두드러지게 나타났습니다.
이러한 우려는 응답에 반영되지 않았으며, 일상적인 저널리즘 관행에 초점을 맞춘 답변이 주를 이뤘습니다. 저널리즘이 공공 담론을 형성하는 데 중요한 역할을 한다는 점을 고려할 때, 광범위한 윤리적 문제에 대한 관심 부족이 정신적 단절이나 인식 부족의 결과인지, 아니면 질문의 틀이 잘못되었기 때문인지 살펴볼 필요가 있습니다.
책임감 있게 생성형 AI를 사용하기 위한 전략은 결과물 모니터링에 집중되어 있으며, 입력과 실제 모델을 모니터링하는 전략에는 훨씬 덜 집중되어 있습니다. 편향성, 투명성 부족, 정확성 부족과 같이 언급된 주요 우려 사항 중 일부는 이미 제너레이티브 AI 개발 프로세스 초기에 나타날 수 있으며 모델 제공자가 (잠재적으로 더 효율적으로) 해결할 수 있는 문제이기도 합니다.
달리 말하면, 설문조사 응답 전반에 걸쳐 입력(학습 데이터) 및 모델 수준에서 윤리적 및 법적 문제, 더 나아가 기술 자체의 신뢰성에 대한 비판적 참여는 매우 제한적이었습니다. 이는 부분적으로는 대부분의 상용 독점 대규모 언어 모델이 학습 데이터와 모델에 대해 특별히 투명하지 않다는 사실로 설명할 수 있으며, 부분적으로는 많은 설문 응답자가 지적한 더 많은 학습과 AI 리터러시의 필요성에 따른 결과일 수도 있습니다.
향후 법적 의무화(예: 유럽 AI법)에 따라 생성형 AI 모델의 학습 방식에 대한 투명성이 어느 정도까지 강화될지 여부는 실제 조사와 사용 도구에 대한 보다 비판적인 평가로 이어질지 지켜봐야 할 것입니다.
가이드라인은 책임감 있는 생성형 AI 사용을 위한 중요한 도구이지만, 응답자들은 보다 역동적인 접근 방식이 필요하다고 강조합니다. 일부 결과는 제너레이티브 AI의 책임 있는 사용을 정적인 규칙 집합이 아닌 살아있는 문서로 간주해야 한다는 점을 보여줍니다.
또한 이러한 가이드라인은 어떤 도구를 사용해야 하고 사용하지 말아야 하는지에 대한 보다 구체적인 예시를 통해 보다 구체적이어야 합니다. 그러나 너무 구체적인 가이드라인은 행동을 지나치게 구체화하여 생성형 AI의 실험을 저해할 수 있습니다.
책임감 있는 생성형 AI 사용을 평가할 때 일부 응답자의 경우 직감과 개인적인 도덕적 기준이 중요한 역할을 하는 것으로 나타났지만, 이러한 '주관적인' 느낌이 책임감 있는 생성형 AI 사용을 결정하는 데 충분한지 의문을 가질 수 있습니다. 과제 중 하나는 모호한 원칙과 지침을 업무 현장에서 어떻게 조정하고, 시행하며, 실무에 적용하는가 하는 것입니다.
뉴스 콘텐츠를 인공지능 학습 데이터로 사용하는 것에 대한 질문에 응답자의 절반에 해당하는 가장 많은 그룹이 찬반 의견이 엇갈렸습니다. 조사 결과에 따르면 응답자들은 수익 창출의 잠재력을 보고 있지만, 동시에 지적 재산과 저널리즘의 무결성을 보호하기 위해 저작권 문제, 투명성, 책임에 대한 신중한 고려가 필요하다고 강조하고 있습니다. 기업의 뉴스 보도 훈련을 허용하는 것에 찬성하는 응답자는 14% 미만으로, 이러한 협업을 통해 AI 모델의 정확성과 신뢰성을 향상시켜 뉴스 산업과 사회에 도움이 될 수 있다고 주장했습니다.
설문조사 결과, 책임감 있는 인공 지능 사용의 의미는 사용처에 따라 다르며, 일부 응답자는 업계 전반에 적용될 수 있는 가이드라인에 대한 관심을 언급했습니다. 응답자들은 투명성, 인적 감독, 구체적인 사용 금지 사항 등 보다 추상적인 수준의 몇 가지 일반적인 가이드라인을 언급하기도 했습니다.
요컨대, 생성형 AI의 책임감 있는 사용과 구현에는 시간과 자원이 필요합니다. 응답자들은 생성형 AI와 관련된 책임이 무엇을 의미하는지 알아가는 초기 단계에 있다고 말합니다. 응답자들은 뉴스 업계가 새로운 기술을 학습할 시간이 필요하며, 기존의 지침과 가이드라인에 따라 적극적으로 실험해야 한다고 말합니다.
향후 전망
뉴스 업계는 사회 전반으로 확산되고 있는 생성형 AI 기술의 물결에 빠르게 대응하고 있습니다. 워크플로우를 조정하고, 새로운 역할을 추가하고, 제너레이티브 AI 기술을 실무에 활용하는 접근 방식을 개발함으로써 우리는 기술의 역량과 한계에 비추어 뉴스 업무의 진화와 책임감 있는 관행의 조짐을 볼 수 있습니다. 하지만 추가적인 투자와 조치가 필요한 분야도 많습니다:
- 가이드라인과 같은 사용 정책을 더욱 구체화하여 실무자들이 특정 업무와 사용 사례에 대해 책임감 있는 사용을 하도록 유도할 수 있습니다. 또한 도구 자체를 더욱 엄격하고 체계적으로 평가하여 정확성, 편향성, 개인정보 보호 등에 대한 저널리즘의 기대와 규범에 부합하는지 확인함으로써 기본적으로 더 책임감 있는 사용이 이루어지도록 할 수 있습니다.
- 하지만 가이드라인만으로는 충분하지 않으며, 인적 감독, 책임감 있는 실험, 전담 지원 및 학습 구조 구축 등 책임감 있는 사용 관행을 확립하기 위해 업무 프로세스와 루틴에 효과적으로 구현해야 합니다.
- 효율성 및 성과 향상 측면에서 실제로 어떤 작업과 사용 사례가 이점을 제공하는지에 대한 증거 기반을 확립하고 다양한 작업의 성공 및 품질 결과물을 평가하는 기준을 정교화하기 위해서는 추가적인 연구가 필요합니다.
- 디자인 및 프로토타이핑은 기존 워크플로우의 최적화가 아닌 진정으로 새로운 경험을 탐구하는 동시에 생성된 결과물에 대한 사람의 감독과 편집을 지원하기 위해 더욱 강력한 인터페이스를 탐색하는 데 사용될 수 있습니다.
- 또한 신속한 작성뿐만 아니라 사용 지침(또는 기타 정책)의 책임 있는 사용과 준수, 워크플로우를 평가하고 개선하는 방법 또는 완전히 새로운 워크플로우를 개발하는 방법에 대해 체계적으로 사고하는 새로운 교육 프로그램도 필요합니다.
요컨대, 뉴스 조직은 아직 이 강력한 신기술의 확산 초기 단계에 있으며 정책, 관행, 연구, 디자인, 교육 등을 발전시켜 저널리즘의 잠재력을 최대한 실현하기 위해 많은 노력이 남아 있습니다.
공개 및 승인
AP 통신은 교육을 위해 일부 텍스트 아카이브 콘텐츠를 OpenAI에 라이선스했습니다. OpenAI는 계약의 일부로 일부 기술에 대한 액세스를 제공합니다. 이 보고서에 대한 니콜라스 디아코풀로스와 샬롯 리의 노력은 존 S. 및 제임스 L. 나이트 재단의 보조금으로 지원되었습니다. 하네스 쿨스와 나탈리 헬버거는 암스테르담의 AI, 미디어 및 민주주의 연구소의 회원으로, 이 연구를 위한 노력을 지원했습니다.
주석
본 콘텐츠는 2024년 4월 AP에서 발행한 "Generative AI in Journalism: The Evolution of Newswork and Ethics in a Generative Information Ecosystem" 리포트를 번역한 것입니다. 저는 전문 번역가가 아니기 때문에 오역이 있을 수 있습니다. 또한 본 글은 원저작자의 요청에 따라 불시에 삭제될 수 있습니다. 감사합니다.