영국 정부는 OpenAI, Anthropic, Google과 같은 기업에 대규모 언어 모델(LLM)의 내부 작동 방식을 설명하도록 압력을 가하고 있습니다. 일부 모델의 코드는 공개되어 있지만 GPT-3.5 및 GPT-4와 같은 모델은 공개되어 있지 않으며 OpenAI는 많은 세부 정보를 공유하는 것을 매우 꺼립니다.
영국은 정부, 기업, 연구자들이 한자리에 모여 인공지능으로 인한 위험을 조사하고 이를 줄이는 방법을 논의할 새로운 글로벌 인공지능 정상회담을 개최할 준비를 하고 있습니다.
기업이 내부 데이터 공유를 꺼리는 이유 중 하나는 그러한 행위로 인해 자사 제품에 대한 독점 정보가 노출될 수 있기 때문입니다. 악의적인 행위자가 더 많은 내부 정보를 알게 되면 인공 지능 모델이 사이버 공격에 취약해질 수도 있습니다.
Financial Times에 따르면 정부가 확인하고 싶은 것 중 하나는 모델의 여러 계층에 있는 뉴런 간의 연결 강도를 정의하는 모델 가중치입니다. 현재 AI 기업은 이러한 세부 정보를 공유할 의무가 없지만 이와 관련하여 투명성을 높여야 한다는 요구가 있었습니다.
영국은 오는 11월 블레츨리 파크에서 첫 정상회담을 가질 예정이다. 블레츨리 파크(Bletchley Park)는 나치 메시지가 해독된 곳으로 컴퓨팅 역사에서 중요한 위치를 차지하고 있습니다. 인공지능과 관련된 튜링 테스트는 그곳에서도 코드를 해독한 앨런 튜링의 이름을 따서 명명됐다.
Financial Times는 Google의 DeepMind, OpenAI 및 Anthropic이 모두 지난 6월 연구 및 보안 목적으로 영국 정부에 모델을 공개하기로 합의했다고 언급했습니다. 불행하게도 당사자들은 당시 공개 범위와 기술적 세부 사항에 대해 합의하지 못했습니다. 이제 정부가 요구하는 개방성 수준은 상당히 높다.
궁극적으로 정상회담이 성공하려면 참석자들은 모델의 작동 방식을 완전히 이해하여 모델의 위험을 더 잘 이해할 수 있어야 합니다. 모델에 대한 적절한 접근 권한이 있는지 여부는 또 다른 질문입니다.