[농수축산신문=김소연 기자]
인공지능 챗봇인 ‘챗GPT’의 기존규칙에서 벗어난 교란발생을 의미하는 이른바 ‘탈옥 문제’를 예방하기 위해선 인공지능(AI)의 신뢰성을 검증해야 한다는 주장이 제기됐다.
박지환 씽크포비엘 대표는 지난 10일 한국산업지능화협회(KOIIA) 주최로 서울 코엑스에서 열린 ‘2023 산업지능화 컨퍼런스’에서 이같이 밝혔다.
박 대표는 ‘미래 산업계 AI와 디지털 트윈’ 주제의 기조 강연에서 챗GPT에 대한 사회적 우려를 언급하고 “인간에서 유익한 방향으로 챗GPT를 통제하기 위해서는 관련 규제 마련과 기술적 방법 도출이 시급하다”고 밝혔다.
그는 “효율을 중시하는 과정에서 AI에 모든 판단 주체를 넘기는 맹신에 가까운 태도를 보이면 걷잡을 수 없는 문제가 발생한다”며 “업계에서는 챗GPT가 최근 탈옥을 시도해 폭력적·불법적 내용을 다루면서 적절한 규제가 필요하다는 공감대가 마련되고 있다”고 설명했다.
씽크포비엘은 AI 신뢰성 확보를 위한 기술기법은 개발 중이며 2021년과 지난해 한국정보통신기술협회(TTA)에 관련 기술기법 다섯 건이 단체표준으로 채택됐다.
박 대표는 “데이터를 기술적 방법으로 통제하지 않은 상황에서 AI에 공정한 판단을 요구하는 것은 길거리에 자유롭게 방치된 아이가 아무 탈 없이 인격자로 자라나길 기대하는 것과 같다”며 “신기술이 제공하는 문명을 온전하게 누리기 위해서는 신기술에 대한 맹신과 불신을 구별해야 하며 인간 보편의 존엄과 가치를 지킬 수 있는 검증 기술, AI 신뢰성 검증과 데이터 편향 측정 등의 기술이 병행·발전돼야 한다”고 제언했다.