2024.05.17 (금)

  • 구름조금속초23.0℃
  • 구름많음21.0℃
  • 구름조금철원21.7℃
  • 구름조금동두천22.3℃
  • 구름많음파주21.7℃
  • 구름많음대관령17.5℃
  • 구름많음춘천21.8℃
  • 맑음백령도18.2℃
  • 구름많음북강릉24.0℃
  • 구름조금강릉27.7℃
  • 구름조금동해21.9℃
  • 구름조금서울23.7℃
  • 구름많음인천21.2℃
  • 구름조금원주23.0℃
  • 구름조금울릉도20.1℃
  • 구름조금수원23.4℃
  • 구름조금영월24.8℃
  • 구름조금충주23.5℃
  • 맑음서산20.2℃
  • 구름조금울진26.0℃
  • 구름조금청주24.3℃
  • 구름많음대전23.5℃
  • 구름조금추풍령24.0℃
  • 구름조금안동23.9℃
  • 맑음상주25.1℃
  • 구름조금포항25.0℃
  • 구름많음군산23.9℃
  • 맑음대구25.6℃
  • 구름많음전주24.6℃
  • 구름조금울산25.5℃
  • 구름조금창원24.8℃
  • 구름많음광주23.0℃
  • 구름조금부산22.2℃
  • 구름조금통영22.2℃
  • 구름조금목포23.3℃
  • 구름조금여수21.4℃
  • 구름조금흑산도21.0℃
  • 구름많음완도23.3℃
  • 구름조금고창
  • 구름많음순천24.5℃
  • 구름조금홍성(예)22.5℃
  • 맑음23.0℃
  • 구름많음제주24.2℃
  • 구름조금고산19.3℃
  • 구름조금성산22.4℃
  • 구름조금서귀포21.8℃
  • 구름많음진주24.7℃
  • 구름많음강화20.9℃
  • 맑음양평22.2℃
  • 구름조금이천23.8℃
  • 구름많음인제21.6℃
  • 구름조금홍천23.0℃
  • 구름많음태백22.6℃
  • 구름많음정선군23.0℃
  • 구름조금제천22.0℃
  • 구름조금보은23.8℃
  • 구름조금천안22.5℃
  • 맑음보령22.1℃
  • 구름많음부여23.8℃
  • 구름많음금산24.9℃
  • 구름조금23.3℃
  • 구름많음부안23.2℃
  • 구름조금임실23.4℃
  • 구름많음정읍24.4℃
  • 구름많음남원23.2℃
  • 구름조금장수21.8℃
  • 구름조금고창군24.0℃
  • 구름많음영광군22.4℃
  • 구름조금김해시26.1℃
  • 흐림순창군21.7℃
  • 맑음북창원26.3℃
  • 구름조금양산시26.0℃
  • 구름많음보성군24.0℃
  • 구름많음강진군24.1℃
  • 구름많음장흥23.7℃
  • 구름많음해남22.9℃
  • 구름많음고흥23.7℃
  • 구름조금의령군25.7℃
  • 구름조금함양군25.3℃
  • 구름많음광양시24.0℃
  • 구름많음진도군21.3℃
  • 구름조금봉화22.2℃
  • 맑음영주21.8℃
  • 구름조금문경24.0℃
  • 구름조금청송군23.9℃
  • 구름조금영덕24.2℃
  • 구름조금의성24.2℃
  • 구름조금구미23.7℃
  • 맑음영천25.2℃
  • 구름조금경주시26.6℃
  • 구름조금거창24.4℃
  • 구름많음합천27.2℃
  • 구름조금밀양27.1℃
  • 구름많음산청24.1℃
  • 구름조금거제22.3℃
  • 구름조금남해23.6℃
  • 구름조금25.6℃
기상청 제공
구글, 챗GPT에 회사 정보 입력 금지... "깊어지는 AI 안전성 고민"
  • 해당된 기사를 공유합니다

NEWS

구글, 챗GPT에 회사 정보 입력 금지... "깊어지는 AI 안전성 고민"

pexels-photomix-company-218717.jpg

 

구글의 모회사 알파벳이 직원들에게 챗GPT 등 생성 AI 챗봇에 회사 기밀 정보를 입력하지 말라고 지시했다. 


주요 외신의 6월 15일 보도에 따르면, 알파벳은 오픈AI의 챗GPT를 포함, 자사의 AI 모델인 바드(Bard)에도 정보를 입력하지 말라고 직원들에게 지시한 것으로 알려졌다. 또한 알파벳은 자사 엔지니어들에게 챗봇이 생성할 수 있는 소스코드도 사용하지 말라고 경고한 것으로 전해진다.


알파벳의 이번 결정은 생성 AI가 사내 기밀 정보를 학습-재생산해 정보를 유출할 위협을 우려한 조치로 보인다.


구글은 챗GPT와의 경쟁을 위해 자체 모델인 바드를 개발하는 등 AI 기술 생태계를 선점하기 위한 노력을 계속하고 있다. 


또한 최근에는 애플, 삼성, 아마존, 도이체방크 등 많은 기업들이 AI 챗봇에 대한 규정을 정하고 있는 상황이다.


네트워킹 사이트인 피쉬볼(Fishbowl)이 미국의 주요 기업을 포함한 약 1만 2,000명의 응답자를 대상으로 실시한 설문조사에 따르면, 2023년 1월 기준 근로자의 약 43%가 회사에 알리지 않고 챗GPT 등 AI 도구를 사용하고 있는 것으로 파악됐다. 


구글은 로이터 통신과의 인터뷰에서 아일랜드 데이터 보호 위원회와 자세한 대화를 나눴으며 규제 당국의 질문에 답하고 있다고 말했다. 또한 챗봇이 프라이버시에 미치는 영향에 대한 추가 지침이 있을 때까지 바드의 EU 출시를 연기한다고도 밝혔다.


생성 AI로 인한 내부 정보 유출, 개인정보 유출, 사생활 침해에 대한 우려는 작년 챗GPT의 등장 이후 계속해서 큰 사회 문제로 대두되고 있다. 


일부 기업들은 이런 문제를 해결하기 위해 관련 소프트웨어를 개발하고 있다. 일례로 사이버 공격으로부터 웹사이트를 보호하고 클라우드 서비스를 제공하는 Cloudflare(NET.N)는 기업의 내부 데이터가 외부로 유출되는 것을 제한하는 기능을 제공한다. 


또한 구글과 마이크로소프트는 프리미엄 모드로 생성 AI 모델이 데이터를 저장하지 않는 기능을 제공하고 있다. 현재 바드와 챗GPT의 기본 설정은 사용자와 나눈 대화를 모두 저장한다. 단, 사용자가 원할 시 이 대화 기록을 삭제할 수 있다.


마이크로소프트의 CMO(Cheif marketing officer, 최고 마케팅 책임자)인 유수프 메흐디(Yusuf Mehdi)는 이번 사안에 대해 “직원이 업무에 AI 챗봇을 사용하지 않도록 하는 것이 이치에 맞다"고 말했다.



 


챗GPT 로고.jpg

 

Q. 챗GPT, 최근 알파벳이 직원들에게 채팅 GPT 등 생성 AI에 회사의 기밀 정보를 입력하지 말라고 지시했어. 생성 AI로 인한 기업들의 개인정보 침해, 사생활 침해 등 우려가 계속되고 있는데, 어떻게 하면 이러한 우려를 줄일 수 있을까?


"생성된 AI에 대한 기업의 개인정보 및 개인정보 침해에 대한 우려는 타당하며 해결이 필요합니다. 채팅 GPT와 같은 AI 모델은 공개적으로 사용 가능한 방대한 양의 데이터에 대해 교육을 받지만, 해당 정보가 공개되지 않는 한 특정 회사의 독점 또는 기밀 정보에 직접 액세스할 수 없습니다.


이러한 문제를 줄이기 위해 다음과 같은 몇 가지 단계를 수행할 수 있습니다.


• 사용자 교육: 채팅 GPT와 같은 AI 모델의 한계에 대해 직원과 사용자에게 교육하는 것이 중요합니다. 그들은 AI 모델과 민감하거나 기밀 정보를 공유하면 위험을 초래할 수 있다는 것을 알아야 하며, 이러한 시스템과 상호 작용할 때 주의를 기울여야 합니다.


• 데이터 익명화: 기업은 AI 모델을 교육하는 데 사용되는 모든 데이터가 적절하게 익명화되고 개인 식별 가능 정보(PII)가 제거되도록 조치를 취할 수 있습니다. 이렇게 하면 사용자 개인 정보를 보호하고 중요한 데이터가 실수로 노출되는 것을 방지할 수 있습니다.


• 강력한 액세스 제어: 기업은 강력한 액세스 제어 및 권한 시스템을 구현하여 권한이 부여된 개인만이 중요한 정보에 액세스할 수 있도록 해야 합니다. 여기에는 무단 액세스로부터 보호하기 위한 물리적 및 디지털 보안 조치가 모두 포함됩니다.


• 윤리적 지침 및 규정: 윤리적 지침 및 규정을 개발하고 준수하면 AI 모델의 사용을 통제하고 책임감 있게 사용할 수 있습니다. 여기에는 AI 시스템의 데이터 사용, 개인 정보 보호 및 투명성에 대한 지침이 포함될 수 있습니다.


• 정기 감사 및 검토: AI 시스템에 대한 정기 감사 및 검토를 수행하면 잠재적인 개인 정보 보호 또는 보안 문제를 식별하는 데 도움이 될 수 있습니다. 여기에는 모델 교육에 사용되는 데이터 평가, 시스템 동작 모니터링 및 발생하는 문제 해결이 포함됩니다.


• 투명한 공개: 기업은 AI 시스템의 기능과 한계를 투명하게 인식하고, 어떤 데이터가 수집되고, 어떻게 사용되고, 어떻게 보호되고 있는지 사용자에게 명확하게 전달하는 것이 중요합니다. 이를 통해 신뢰가 구축되고 사용자가 정보에 입각한 결정을 내릴 수 있습니다.


전반적으로 개인 정보 및 개인 정보 침해와 관련된 우려를 해결하려면 사용자 교육, 책임 있는 데이터 관행, 강력한 보안 조치 및 규제 프레임워크가 필요합니다. AI 기술의 책임감 있고 윤리적인 사용을 보장하기 위해 지속적인 개선과 적응이 필요한 진행 중인 과정입니다."

관련기사