2024.06.01 (토)

  • 흐림속초17.1℃
  • 구름많음25.1℃
  • 맑음철원23.5℃
  • 맑음동두천25.4℃
  • 맑음파주25.0℃
  • 흐림대관령11.8℃
  • 구름조금춘천24.2℃
  • 맑음백령도18.1℃
  • 비북강릉15.4℃
  • 흐림강릉15.8℃
  • 구름많음동해17.3℃
  • 구름조금서울24.8℃
  • 맑음인천22.2℃
  • 구름많음원주24.6℃
  • 구름조금울릉도19.5℃
  • 맑음수원23.8℃
  • 구름많음영월21.4℃
  • 구름조금충주24.4℃
  • 맑음서산23.1℃
  • 흐림울진16.8℃
  • 맑음청주23.8℃
  • 맑음대전24.8℃
  • 맑음추풍령23.5℃
  • 구름많음안동24.7℃
  • 구름조금상주25.6℃
  • 구름많음포항20.5℃
  • 맑음군산21.8℃
  • 구름조금대구26.7℃
  • 구름조금전주24.2℃
  • 구름조금울산22.0℃
  • 구름많음창원27.3℃
  • 구름조금광주23.8℃
  • 구름조금부산24.5℃
  • 맑음통영25.0℃
  • 구름조금목포21.2℃
  • 구름조금여수25.2℃
  • 구름조금흑산도20.2℃
  • 맑음완도24.0℃
  • 맑음고창23.2℃
  • 구름조금순천22.7℃
  • 맑음홍성(예)23.8℃
  • 맑음22.7℃
  • 구름조금제주21.9℃
  • 구름조금고산19.3℃
  • 맑음성산22.7℃
  • 맑음서귀포24.2℃
  • 구름조금진주26.2℃
  • 맑음강화23.1℃
  • 구름조금양평24.7℃
  • 맑음이천26.4℃
  • 구름많음인제18.2℃
  • 구름많음홍천24.5℃
  • 흐림태백14.1℃
  • 흐림정선군23.6℃
  • 구름많음제천22.8℃
  • 맑음보은23.9℃
  • 맑음천안23.2℃
  • 맑음보령24.2℃
  • 맑음부여25.2℃
  • 구름많음금산24.0℃
  • 맑음24.2℃
  • 맑음부안22.5℃
  • 구름조금임실23.0℃
  • 맑음정읍23.8℃
  • 구름조금남원23.9℃
  • 구름많음장수21.8℃
  • 맑음고창군23.5℃
  • 맑음영광군21.9℃
  • 구름많음김해시25.1℃
  • 구름조금순창군22.4℃
  • 구름조금북창원26.7℃
  • 구름많음양산시26.7℃
  • 구름조금보성군25.4℃
  • 맑음강진군24.7℃
  • 구름조금장흥23.7℃
  • 맑음해남22.4℃
  • 구름조금고흥26.5℃
  • 구름조금의령군28.0℃
  • 구름조금함양군25.3℃
  • 구름조금광양시26.7℃
  • 구름조금진도군21.3℃
  • 구름많음봉화22.7℃
  • 구름많음영주22.4℃
  • 구름많음문경23.6℃
  • 구름많음청송군23.7℃
  • 흐림영덕17.9℃
  • 구름많음의성25.1℃
  • 구름조금구미26.4℃
  • 구름많음영천25.0℃
  • 구름많음경주시24.9℃
  • 구름많음거창24.5℃
  • 구름많음합천26.5℃
  • 구름조금밀양26.8℃
  • 구름조금산청25.6℃
  • 구름조금거제25.7℃
  • 구름조금남해25.7℃
  • 구름많음25.6℃
기상청 제공
구글, 챗GPT에 회사 정보 입력 금지... "깊어지는 AI 안전성 고민"
  • 해당된 기사를 공유합니다

NEWS

구글, 챗GPT에 회사 정보 입력 금지... "깊어지는 AI 안전성 고민"

pexels-photomix-company-218717.jpg

 

구글의 모회사 알파벳이 직원들에게 챗GPT 등 생성 AI 챗봇에 회사 기밀 정보를 입력하지 말라고 지시했다. 


주요 외신의 6월 15일 보도에 따르면, 알파벳은 오픈AI의 챗GPT를 포함, 자사의 AI 모델인 바드(Bard)에도 정보를 입력하지 말라고 직원들에게 지시한 것으로 알려졌다. 또한 알파벳은 자사 엔지니어들에게 챗봇이 생성할 수 있는 소스코드도 사용하지 말라고 경고한 것으로 전해진다.


알파벳의 이번 결정은 생성 AI가 사내 기밀 정보를 학습-재생산해 정보를 유출할 위협을 우려한 조치로 보인다.


구글은 챗GPT와의 경쟁을 위해 자체 모델인 바드를 개발하는 등 AI 기술 생태계를 선점하기 위한 노력을 계속하고 있다. 


또한 최근에는 애플, 삼성, 아마존, 도이체방크 등 많은 기업들이 AI 챗봇에 대한 규정을 정하고 있는 상황이다.


네트워킹 사이트인 피쉬볼(Fishbowl)이 미국의 주요 기업을 포함한 약 1만 2,000명의 응답자를 대상으로 실시한 설문조사에 따르면, 2023년 1월 기준 근로자의 약 43%가 회사에 알리지 않고 챗GPT 등 AI 도구를 사용하고 있는 것으로 파악됐다. 


구글은 로이터 통신과의 인터뷰에서 아일랜드 데이터 보호 위원회와 자세한 대화를 나눴으며 규제 당국의 질문에 답하고 있다고 말했다. 또한 챗봇이 프라이버시에 미치는 영향에 대한 추가 지침이 있을 때까지 바드의 EU 출시를 연기한다고도 밝혔다.


생성 AI로 인한 내부 정보 유출, 개인정보 유출, 사생활 침해에 대한 우려는 작년 챗GPT의 등장 이후 계속해서 큰 사회 문제로 대두되고 있다. 


일부 기업들은 이런 문제를 해결하기 위해 관련 소프트웨어를 개발하고 있다. 일례로 사이버 공격으로부터 웹사이트를 보호하고 클라우드 서비스를 제공하는 Cloudflare(NET.N)는 기업의 내부 데이터가 외부로 유출되는 것을 제한하는 기능을 제공한다. 


또한 구글과 마이크로소프트는 프리미엄 모드로 생성 AI 모델이 데이터를 저장하지 않는 기능을 제공하고 있다. 현재 바드와 챗GPT의 기본 설정은 사용자와 나눈 대화를 모두 저장한다. 단, 사용자가 원할 시 이 대화 기록을 삭제할 수 있다.


마이크로소프트의 CMO(Cheif marketing officer, 최고 마케팅 책임자)인 유수프 메흐디(Yusuf Mehdi)는 이번 사안에 대해 “직원이 업무에 AI 챗봇을 사용하지 않도록 하는 것이 이치에 맞다"고 말했다.



 


챗GPT 로고.jpg

 

Q. 챗GPT, 최근 알파벳이 직원들에게 채팅 GPT 등 생성 AI에 회사의 기밀 정보를 입력하지 말라고 지시했어. 생성 AI로 인한 기업들의 개인정보 침해, 사생활 침해 등 우려가 계속되고 있는데, 어떻게 하면 이러한 우려를 줄일 수 있을까?


"생성된 AI에 대한 기업의 개인정보 및 개인정보 침해에 대한 우려는 타당하며 해결이 필요합니다. 채팅 GPT와 같은 AI 모델은 공개적으로 사용 가능한 방대한 양의 데이터에 대해 교육을 받지만, 해당 정보가 공개되지 않는 한 특정 회사의 독점 또는 기밀 정보에 직접 액세스할 수 없습니다.


이러한 문제를 줄이기 위해 다음과 같은 몇 가지 단계를 수행할 수 있습니다.


• 사용자 교육: 채팅 GPT와 같은 AI 모델의 한계에 대해 직원과 사용자에게 교육하는 것이 중요합니다. 그들은 AI 모델과 민감하거나 기밀 정보를 공유하면 위험을 초래할 수 있다는 것을 알아야 하며, 이러한 시스템과 상호 작용할 때 주의를 기울여야 합니다.


• 데이터 익명화: 기업은 AI 모델을 교육하는 데 사용되는 모든 데이터가 적절하게 익명화되고 개인 식별 가능 정보(PII)가 제거되도록 조치를 취할 수 있습니다. 이렇게 하면 사용자 개인 정보를 보호하고 중요한 데이터가 실수로 노출되는 것을 방지할 수 있습니다.


• 강력한 액세스 제어: 기업은 강력한 액세스 제어 및 권한 시스템을 구현하여 권한이 부여된 개인만이 중요한 정보에 액세스할 수 있도록 해야 합니다. 여기에는 무단 액세스로부터 보호하기 위한 물리적 및 디지털 보안 조치가 모두 포함됩니다.


• 윤리적 지침 및 규정: 윤리적 지침 및 규정을 개발하고 준수하면 AI 모델의 사용을 통제하고 책임감 있게 사용할 수 있습니다. 여기에는 AI 시스템의 데이터 사용, 개인 정보 보호 및 투명성에 대한 지침이 포함될 수 있습니다.


• 정기 감사 및 검토: AI 시스템에 대한 정기 감사 및 검토를 수행하면 잠재적인 개인 정보 보호 또는 보안 문제를 식별하는 데 도움이 될 수 있습니다. 여기에는 모델 교육에 사용되는 데이터 평가, 시스템 동작 모니터링 및 발생하는 문제 해결이 포함됩니다.


• 투명한 공개: 기업은 AI 시스템의 기능과 한계를 투명하게 인식하고, 어떤 데이터가 수집되고, 어떻게 사용되고, 어떻게 보호되고 있는지 사용자에게 명확하게 전달하는 것이 중요합니다. 이를 통해 신뢰가 구축되고 사용자가 정보에 입각한 결정을 내릴 수 있습니다.


전반적으로 개인 정보 및 개인 정보 침해와 관련된 우려를 해결하려면 사용자 교육, 책임 있는 데이터 관행, 강력한 보안 조치 및 규제 프레임워크가 필요합니다. AI 기술의 책임감 있고 윤리적인 사용을 보장하기 위해 지속적인 개선과 적응이 필요한 진행 중인 과정입니다."

관련기사