본문 바로가기
AI 및 IT기술 이슈

"OpenAI, AI를 이용한 은밀한 영향력 작전 5건 차단"

by oddsilk 2024. 6. 14.

OpenAI, 은밀한 영향력 작전을 저지하며 AI 안전 강화

최근 3개월 동안 OpenAI는 자사의 모델을 이용해 온라인에서 기만적인 활동을 시도한 5건의 은밀한 영향력 작전(IO)을 저지했습니다. 2024년 5월 기준, 이러한 캠페인은 OpenAI의 서비스로 인해 청중 참여나 도달 범위에서 큰 성과를 거두지 못했습니다.

 

OpenAI는 안전을 고려한 AI 모델 설계 덕분에 위협 행위자들이 원하는 콘텐츠를 생성하려는 시도가 종종 무산되었다고 주장합니다. 또한, AI 도구가 OpenAI의 조사 효율성을 높였다고 밝혔습니다. 배포 플랫폼과 오픈 소스 커뮤니티의 상세한 위협 보고는 IO와 싸우는 데 크게 기여했으며, OpenAI는 이러한 발견을 공유하여 이해 관계자 간의 정보 공유와 모범 사례를 촉진하고자 합니다.

 

은밀한 IO 저지 사례

지난 3개월 동안 OpenAI는 다양한 작업을 위해 자사의 모델을 사용한 여러 IO 작전을 저지했습니다. 예를 들어, 짧은 댓글 생성, 가짜 소셜 미디어 프로필 작성, 오픈 소스 연구, 간단한 코드 디버깅, 텍스트 번역 등을 포함합니다.

저지된 특정 작전은 다음과 같습니다:

  1. Bad Grammar: 러시아에서 우크라이나, 몰도바, 발트 국가, 미국을 대상으로 한 작전. 이 그룹은 OpenAI의 모델을 사용해 텔레그램 봇을 실행하기 위한 코드를 디버깅하고, 러시아어와 영어로 정치적 댓글을 작성하여 텔레그램에 게시했습니다.
  2. Doppelganger: 또 다른 러시아 작전으로, X와 9GAG 같은 플랫폼에서 여러 언어로 댓글을 생성하고, 기사 번역 및 편집, 뉴스 기사 제목 생성, 페이스북 게시물로 변환하는 작업을 수행했습니다.
  3. Spamouflage: 중국 네트워크로, OpenAI의 모델을 사용해 공공 소셜 미디어 활동 연구, 여러 언어로 텍스트 생성, 데이터베이스 및 웹사이트 관리를 위한 코드 디버깅을 수행했습니다.
  4. International Union of Virtual Media (IUVM): 이란 작전으로, 장문 기사, 제목, 웹사이트 태그를 생성 및 번역하여 링크된 웹사이트에 게시했습니다.
  5. Zero Zeno: 이스라엘의 상업 회사로, 인스타그램, 페이스북, X 및 관련 웹사이트에 게시되는 기사와 댓글을 생성했습니다.

이 작전들은 러시아의 우크라이나 침공, 가자 지구 분쟁, 인도 선거, 유럽 및 미국 정치, 중국 정부에 대한 비판 등 다양한 주제를 다루었습니다. 그러나 OpenAI의 모델을 사용한 이러한 노력은 청중 참여에서 큰 성과를 거두지 못했습니다.

공격자 동향

조사를 통해 발견된 몇 가지 주요 동향은 다음과 같습니다:

  • 콘텐츠 생성: 위협 행위자들은 OpenAI의 서비스를 이용해 오류가 적은 대량의 텍스트를 생성했습니다.
  • 기존 방식과의 혼합: AI는 수동 작성 텍스트나 복사된 밈과 같은 기존 형식과 함께 사용되었습니다.
  • 가짜 참여: 일부 네트워크는 자체 게시물에 대한 댓글을 생성하여 참여가 있는 것처럼 보이게 했지만, 실제로는 진정한 참여를 이끌어내지 못했습니다.
  • 생산성 향상: 위협 행위자들은 AI를 사용해 소셜 미디어 게시물을 요약하고 코드를 디버깅하여 생산성을 높였습니다.

방어 동향

OpenAI의 조사는 업계 공유 및 오픈 소스 연구에서 큰 혜택을 받았습니다. 방어 조치는 다음과 같습니다:

  • 방어 설계: OpenAI의 안전 시스템은 위협 행위자가 원하는 콘텐츠를 생성하는 것을 종종 방해했습니다.
  • AI 기반 조사: AI 도구는 탐지 및 분석의 효율성을 높여 조사 시간을 단축했습니다.
  • 배포의 중요성: IO 콘텐츠는 전통적인 콘텐츠와 마찬가지로 효과적으로 배포되어야 합니다. 그러나 저지된 작전들은 실질적인 참여를 이끌어내지 못했습니다.
  • 업계 공유의 중요성: 업계 동료와 위협 지표를 공유함으로써 OpenAI의 저지 활동의 영향력이 커졌습니다. 회사는 광범위한 연구 커뮤니티의 오픈 소스 분석 덕분에 큰 혜택을 받았습니다.
  • 인간 요소: AI를 사용하더라도 위협 행위자들은 OpenAI 모델의 거부 메시지를 소셜 미디어와 웹사이트에 게시하는 등 인간적인 실수를 범했습니다.

OpenAI는 안전하고 책임감 있는 AI 개발에 헌신하고 있다고 말합니다. 이는 안전을 고려한 모델 설계와 악의적인 사용에 대한 적극적인 개입을 포함합니다. OpenAI는 다중 플랫폼 남용을 감지하고 저지하는 것이 도전적이지만, 이러한 위험을 완화하는 데 전념하고 있습니다.

 

결론: OpenAI의 대응과 AI의 미래

OpenAI의 최근 활동은 AI 기술이 올바르게 사용될 때 얼마나 강력한 도구가 될 수 있는지를 보여줍니다. 다양한 위협 행위자들이 AI를 악용하려는 시도를 무산시킴으로써, OpenAI는 AI 기술의 안전성과 신뢰성을 증명하고 있습니다. 이는 AI 기술이 발전함에 따라 중요한 역할을 하게 될 것입니다.

OpenAI의 접근 방식은 다른 AI 개발자들에게도 중요한 교훈을 제공합니다. AI 모델을 설계할 때 안전성을 최우선으로 고려하고, 악의적인 사용을 방지하기 위한 철저한 방어 시스템을 구축하는 것이 필요합니다. 또한, 위협에 대한 정보를 공유하고 협력함으로써, 전체적인 보안 수준을 높일 수 있습니다.

앞으로도 OpenAI는 안전하고 책임감 있는 AI 개발을 통해, 기술의 긍정적인 영향을 극대화하고 부정적인 영향을 최소화할 것입니다. AI 기술이 더 널리 사용되고 발전함에 따라, 이러한 노력은 더욱 중요해질 것입니다. AI가 인간 사회에 미치는 영향을 깊이 이해하고, 이를 기반으로 한 책임 있는 개발이 이루어지기를 기대합니다.

 

 

원문링크:https://www.artificialintelligence-news.com/2024/05/31/openai-disrupts-five-covert-influence-operations/

 

OpenAI disrupts five covert influence operations

In the last three months, OpenAI has disrupted five covert influence operations (IO) that attempted to exploit the company's models for deceptive activities online. As of May 2024, these campaigns have not shown a substantial increase in audience engagemen

www.artificialintelligence-news.com