챗GPT를 안전하게 사용하는 방법
OpenAI의 새로운 인공지능(AI) 기반 도구인 ChatGPT(챗GPT)는 최근 몇 달 동안 전 세계 뉴스를 뜨겁게 달구었습니다. 많은 사용자들은 챗GPT의 뛰어난 성능에 열광하며 인류와 AI와 함께 만드는 새로운 시대가 다가오고 있음을 외칩니다. 하지만 일부 개인 정보 보호 전문가들은 이 첨단 도구가 사이버 보안에 위협이 될 수 있다고 경고합니다. 인공지능과 같은 강력한 도구의 등장은 우리의 양날의 검이 될 수 있습니다. 어떻게 하면 챗GPT를 사용하면서 개인의 정보도 보호할 수 있을까요?
목차
ChatGPT란 무엇인가요?
챗GPT는 ‘사전 학습된 대화 생성 트랜스포머’Chat Generative Pre-trained Transformer의 약자로서, OpenAI가 대규모 언어 모델(LLM)을 기반으로 개발한 대화형 인공 지능입니다. 사용자와의 대화를 통해 학습하는 챗봇으로서, 2022년 11월에 출시된 챗GPT는 복잡한 내용을 설명하거나 소셜 미디어 게시물을 작성하거나 새로운 아이디어에 대한 영감을 제공하는 등 다양한 고급 기능을 갖추고 있습니다.
저장되어 있는 데이터에 따라 간단한 답변을 하던 기존의 챗봇을 형태를 훨씬 뛰어 넘어, 챗GPT는 사용자가 제공한 입력(전문 용어로는 ‘프롬프트’라고 함)에 따라 일관성 있고 문맥에 맞는 텍스트를 자체적으로 생성할 수 있습니다. 따라서 사용자는 문자 메시지를 통해 질문하여 봇과 대화할 수 있습니다.
2023년 3월에는 GPT-4가 공개되었는데요, 이 최신 버전의 GPT는 한단계 더 발전한 대형 멀티모달 모델(텍스트 뿐만 아니라 이미지 입력 또한 받아들이는)로서, 다양한 전문 및 학술 분야에서 거의 인간에 가까운 수준의 성능을 발휘합니다.
ChatGPT는 어떻게 작동하나요?
챗GPT의 작동은 기본적으로 기계 학습과 신경망을 기반으로 합니다. 이러한 기술 덕분에 인공 지능은 인간의 언어를 분석하고 이해하여 겉보기에 “자연스러운” 의사소통 방식을 사용하여 정확한 답변을 생성할 수 있습니다. 기계 학습, 즉 머신러닝(Machine Learning)을 통한 자가 학습 기능과 광범위한 데이터 세트에 대한 액세스를 통해 문맥에 완벽하게 맞는 답변과 텍스트를 생성합니다. 봇의 답변은 ‘실제’ 사람과의 대화와 거의 구분할 수 없을 정도입니다.
방대한 양의 데이터를 기반으로 다양한 길이의 훈련 기간을 거친 후 챗GPT는 언어 패턴을 인식하는 방법을 배우고 ‘사실적인’ 정보를 획득하여 결과적으로 텍스트를 생성하고 질문에 답하며 사용자와 대화할 수 있습니다.
ChatGPT: 용도는 무엇인가요?
기사, 이메일 및 에세이 작성, 코딩, 언어 연습, 웹사이트용 복잡한 그래픽 콘텐츠 제작, 온라인 고객 지원 등, 말만 하세요. 챗GPT는 다양한 영역에서 사용될 수 있습니다. 챗GPT가 새롭게 보급된 기술이라는 점을 감안할 때 응용 분야는 앞으로 무궁무진하게 진화할 것으로 보입니다.
지금까지 챗GPT가 가장 많이 사용되고 있는 분야는 다음과 같은 다양한 영역입니다:
- 콘텐츠 생성 – 웹사이트 및 소셜 프로필을 위한 기사, 블로그, 게시물 및 광고를 생성하는 작업.
- 고객 지원 – AI를 탑재한 챗봇으로 사용자의 질문을 정교하게 이해하고 여러 언어로 사용자의 질문에 답할 수 있음.
- 번역 작업 – 다양한 언어의 콘텐츠로 구성된 데이터 세트에 대해 ‘훈련’을 받았기 때문에 한 언어에서 다른 언어로 텍스트를 매우 빠르게 번역할 수 있음.
- 정보 요약 – 긴 데이터 세트, 복잡한 문서나 기사를 명확하고 간결하게 간추림.
- 프로그래밍 – 프로그래밍은 AI에게 친숙한 언어 형태인 코드를 기반으로 하기 때문에 애플리케이션과 웹사이트의 소스 코드를 작성할 수 있음.
ChatGPT의 프라이버시 및 기타 문제
인공지능은 위협을 탐지하고 발생 가능한 위험을 미리 예측할 수 있는 모델을 만드는 데 유용합니다. 하지만, 해커가 범죄 활동을 강화하기 위해 인공지능을 사용한 실제 사례 또한 이미 여러 건 발견된 바 있습니다.
인터넷에서 발견할 수 있는 개인 정보 뿐만 아니라 개인 사용자가 챗GPT와 대화하는 내용 또한 데이터로 수집되게 될 수 있습니다. OpenAI는 이용 약관에 “챗봇은 인공 지능을 기반으로 하며, 이를 위해 사용자의 데이터를 처리해야 한다”고 명시하고 있습니다. 그러나 개인 데이터 수집은 불법이며 데이터 수집 및 저장을 정당화하는 법적 근거가 없습니다.
이에, 이탈리아는 유럽 국가 중 최초로 이탈리아 사용자의 개인 데이터 처리를 금지하고 챗GPT 사이트를 차단했습니다. 새로운 AI 기술의 데이터 저장에 대한 법적 근거가 아직 마련되지 않았기 때문에 챗GPT를 사용하는 것이 현재로서는 위험하다고 판단했기 때문입니다. 그러나 오픈AI가 다양한 데이터 보호 조건을 충족하도록 변경한 후 한 달여 만에 이탈리아는 챗GPT 사용 금지를 해제했습니다. 변경 사항에는 챗봇이 사용자 데이터를 처리하는 방식에 대한 투명성 강화가 포함됩니다.
또 다른 문제는 챗GPT가 침해하는 미성년자의 프라이버시입니다. 이 플랫폼은 13세 이상의 청소년을 대상으로 하지만 나이를 확인할 수 있는 필터가 없습니다. 따라서 미성년자는 어린 나이에 부적절한 답변을 받을 수 있습니다.
또한, 안전 기준이 미흡하기 때문에 인공지능 기반 프로그램에 대한 전문가들의 경고가 점점 더 확대되고 있습니다. 이미 여러 기술 전문가와 연구 전문가들은 안전 기준이 개선되고 확립될 때까지 새로운 AI 모델 개발을 중단할 것을 촉구하고 있습니다.
법 집행 기관 관계자들도 사이버 범죄자들이 챗GPT와 같은 플랫폼을 목적에 맞게 사용할 수 있기 때문에 우려하고 있습니다. 챗봇은 피싱 이메일을 만들거나 집에 침입하는 가장 좋은 방법에 대한 팁을 제공하는 데 도움을 줄 수 있습니다. 또한 이에 대한 규제나 독립적인 감독 기관도 없습니다.
ChatGPT의 한계와 시대적 책임
챗GPT의 잠재력은 부인할 수 없지만, 인공 지능 사용과 관련된 한계와 과제를 인식하는 것이 중요합니다. 그 중에는 다음과 같은 것들이 있습니다:
- 정보의 신뢰성 – 인공지능은 학습 데이터에 의존하고 신뢰할 수 있는 출처와 신뢰할 수 없는 출처를 구분할 수 없기 때문에 부정확하거나 오해의 소지가 있는 정보를 생성할 수 있습니다. 따라서 챗GPT가 생성한 정보를 검증하고 그 답변에 맹목적으로 의존하지 않는 것이 중요합니다.
- 윤리와 책임 – 인공지능의 사용은 인공지능이 내린 결정의 책임과 인공지능의 행동이 사람과 사회에 미치는 영향에 관한 윤리적 질문을 제기합니다. 챗GPT 사용과 관련된 윤리적 측면을 신중하게 고려하고, 개인의 권리와 자유를 존중하면서 책임감 있게 AI를 사용하는 것이 중요합니다(예: 업무나 고용 시장에 미칠 수 있는 영향과 관련하여).
- 편견과 차별 – 챗GPT는 다른 인공지능과 마찬가지로 학습 데이터에 존재하는 편견의 영향을 받을 수 있습니다. 이는 차별적이거나 ‘불균형적인’ 응답으로 이어질 수 있습니다. 따라서 인공지능의 행동을 면밀히 모니터링하고 응답의 편향성을 수정하기 위한 조치를 취하는 것이 중요합니다.
- 개인정보 보호 – 인공지능을 사용하여 텍스트를 분석하고 생성하려면 사용자의 개인정보와 처리되는 데이터를 보호해야 합니다. 개인 정보 및 민감한 정보를 적절히 보호하고 관련 규칙에 따라 사용하는 것이 필수적입니다.
- 인공지능에 대한 지나친 의존 – 인공지능에 지나치게 의존하면 창의성과 같은 인간 고유의 능력이 저하될 수 있습니다. 비판적 사고와 인간 혁신의 중요성을 소홀히 하지 않고 챗GPT의 잠재력을 활용하면서 AI 사용과 인간 개입 사이의 ‘적절한 균형’을 찾는 것이 중요합니다.
- 중앙화된 시스템 대두 가능성 – 최신 AI 기술을 제대로 활용할 수 있는 아주 큰 규모의 서버와 관련 장비를 운영하려면 막대한 금액이 필요합니다. 경제력이 뒷받침되는 국가나 특정 사기업에서 디지털 주도권을 독실할 수 있는 위험이 있습니다.
한국에서의 ChatGPT 사용
위에서 설명한대로 개인정보 보안을 이유로 이탈리아에서는 챗GPT가 금지었던 적이 있습니다. 하지만 한국에서는 챗GPT를 금지할 수 없을 것 같습니다. 오히려 챗GPT와 같은 AI 최신 기술은 업무의 효율을 높여 업무량을 줄이고, 직원의 역량과 자율성을 증진하며, 디지털 리터러시를 향상하며, 좀 더 창조적인 업무에 집중할 수 있도록 돕는다는 긍정적 인식이 강합니다.
삼성 및 여러 기업의 경우 업무에 챗GPT를 사용했다가 기업의 내부 정부가 OpenAI측에 유출될 수도 있다는 점 때문에 업무에 이 기술을 사용하는 것을 금지하기도 했습니다. 하지만 최근 SK텔레콤이 국내 통신사 중 최초로 인공지능(AI) 챗봇 ‘챗GPT’를 업무에 정식으로 도입하며 점차 다른 회사들도 신기술을 적극적으로 업무에 도입하는 것이 필요하다는 입장을 보이고 있습니다. (다만 SK텔레콤에 도입된 챗GPT는 일반 이용자들이 무료로 사용할 수 있는 챗GPT와는 다른 ‘폐쇄형 서비스’로서, GPT 3.5 API(응용프로그램 인터페이스)를 활용해 회사 전용 챗GPT 서비스를 만들고 사내망에 탑재한 형태입니다.)
많은 사이버 보안 전문가들이 챗GPT와 같은 생성형 AI가 허위 정보 유포 및 피싱과 같은 유해한 목적으로 사용될 수 있다고 밝혔지만, 이러한 위협만으로 이 도구가 제공하는 긍정적인 효과를 상쇄하는 것은 불가능할 것 같습니다. AI 챗봇은 이미 거스를 수 없는 시대의 흐름이 되어가고 있습니다. Microsoft사가 챗GPT의 기술을 사용하여 내놓은 인공지능 검색엔진 Bing AI도 큰 인기를 끌고 있으며, 이에 질세라 Google에서도 Bard라고 하는 인공지능 검색 챗봇을 각 언어로 개발 중이지요.
면책 조항: NordVPN은 챗GPT의 소유자 및 개발자를 보증, 운영, 후원하거나 어떤 방식으로든 이들과 제휴 또는 연관되어 있지 않습니다. 또한 위에 언급된 회사들과 아무런 관련이 없습니다.
인공지능 기반 도구를 사용하여 온라인에서 자신을 보호하는 방법
- VPN 사용: VPN (가상 사설망)은 더 높은 수준의 보안과 익명성으로 브라우징할 수 있는 가상 사설망으로, 암호화를 통해 데이터와 개인 정보를 보호합니다. 최고의 서비스는 단순히 보안 네트워크만 생성하는 것이 아니라 바이러스 및 위협 방지Pro와 같은 고급 사이버 보안 기능도 제공하며, 대역 스로틀링 또는 인터넷 연결 성능의 심각한 제한(예를 들어 온라인 게임을 할 때 중요)을 피할 수 있습니다.
- 공유하는 정보에 주의하세요: 인공지능에 민감한 정보나 개인 데이터를 공개하지 않으면 악의적인 사용자의 손에 넘어갈 위험이 있습니다. 부주의한 행동에 직면했을 때 개인 데이터 처리와 개인 정보 보호에 미칠 수 있는 결과를 인식하는 것이 중요합니다.
- 모든 장치를 지속적으로 업데이트: 인터넷에 접속할 수 있는 컴퓨터, 스마트폰 및 기타 장치는 항상 최신 버전의 운영 체제 또는 릴리스된 패치를 설치하여 최신 상태로 유지해야 합니다. 업데이트에는 종종 보안 수준에 긍정적인 영향을 미치는 변경 사항이 포함되어 온라인 위협으로부터 디바이스를 보호합니다.
- 강력하고 독창적인 비밀번호 사용: 계정에 강력한 비밀번호를 생성하고 비밀번호 관리자를 사용하여 비밀번호를 안전하게 저장하세요. 여러 계정에 동일한 비밀번호를 사용하면 보안 침해의 위험이 높아지므로 사용하지 마세요.
- 2단계 인증을 사용 설정합니다: 2단계 인증은 온라인 계정에 추가적인 보안 계층을 추가합니다. 2단계 인증이라고도 하는 이 시스템은 로그인할 때마다 표준 자격증명 외에 인증 코드를 전송하는 것을 기반으로 합니다.
- 직접 사용해보기: 인공 지능을 기반으로 하는 챗봇의 한계와 잠재력을 더 잘 이해하려면 이러한 도구를 사용해보고 상황에 맞게 챗봇을 올바르게 활용할 수 있는 능력을 키우세요.