Friday, October 31, 2025

특허 무효 심판(IPR)의 배후는 누구? USPTO, 투명성 강화 선언

 

미국의 기술 혁신은 국가 경쟁력의 심장과도 같습니다. 그러나 이 혁신의 과실을 지키기 위한 보이지 않는 전쟁이 지금 이 순간에도 벌어지고 있습니다. 특허 시스템의 허점을 교묘하게 파고들어 미국 기업의 핵심 기술을 약화시키거나 탈취하려는 숨겨진 세력들이 존재해왔습니다.

최근 미국 특허상표청(USPTO)이 바로 이 위협에 대응하기 위해 조용하지만 강력한 칼을 뽑아 들었습니다. 언뜻 보면 단순한 행정 절차 변경처럼 보이지만, 그 이면에는 미국의 기술 주권을 지키려는 단호한 의지가 담겨 있습니다.

 

이 글에서는 이번 결정이 왜 그렇게 중요하고 놀라운 일인지, 그 핵심 시사점 세 가지를 알기 쉽게 풀어보겠습니다.

미국 특허청(USPTO)의 결정이 기술 혁신을 보호하는 방패 역할을 상징하는 이미지

1. 첫 번째 시사점: 이것은 단순한 서류 절차가 아니라 국가 안보입니다

과거 특허 무효 심판(IPR, 연방 법원 소송보다 빠르고 저렴하게 특허 유효성에 이의를 제기할 수 있도록 특허청 내에서 진행되는 행정 심판)을 청구할 때 ‘실질적 이해당사자(Real Party in Interest, RPI)’를 공개하는 것은 단순한 절차적 요건으로 여겨졌습니다. 하지만 이제 그 의미는 완전히 달라졌습니다. USPTO의 존 스콰이어스(John A. Squires) 청장은 이번 조치를 통해 RPI 공개 요건을 ‘국가 안보 조치’로 격상시켰습니다.

USPTO는 단순히 규칙을 바꾼 것이 아닙니다. 이전까지 어둡게 방치되었던 방에 불을 환하게 켠 것과 같습니다. 기존의 완화된 기준이었던 ‘SharkNinja’ 판례를 폐기하고, 더 엄격한 투명성을 요구하는 ‘Corning Optical’ 판례를 선례로 복원함으로써, 누가 특허에 이의를 제기하는지 아는 수준을 넘어섰습니다. 이제 그 청원의 배후에 누가 자금을 대고, 누가 지시하며, 궁극적으로 누가 이익을 얻는지 명확히 밝히도록 강제하는 것입니다. 이는 미국의 핵심 기술과 지적 재산이 적대 세력의 손에 넘어가는 것을 막기 위한 핵심적인 방어선이 될 것입니다.

스콰이어스 청장은 메모를 통해 이 조치의 중요성을 다음과 같이 역설했습니다.


“전체적으로 볼 때, RPI 요건은 단순한 절차적 안전장치로서가 아니라 국가 안보 조치로서 기능합니다. PTAB 절차의 무결성은 청원의 배후에 누가 있는지, 즉 누가 자금을 대고, 지시하며, 그로부터 이익을 얻는지를 아는 것에 달려 있습니다. 이러한 통제 사슬의 불투명성은 착취를 조장하고, 미국 법률, 규제 및 이익에 반하는 기술 이전을 용이하게 할 수 있으며, 특허 시스템의 무결성에 대한 대중의 신뢰를 훼손할 뿐입니다. 우리는 미국의 혁신 기관에서 그런 일이 일어나도록 두지 않을 것입니다.”
        

2. 두 번째 시사점: 해외 적대 세력은 이미 시스템을 악용하고 있었습니다

이번 USPTO의 결정은 막연한 우려에 기반한 것이 아닙니다. USPTO의 메모는 외국의 국가 연계 단체들이 이미 불투명한 투자 구조를 이용해 미국 특허 시스템을 은밀하게 공격해왔다는 사실을 명확히 지적합니다. 이들의 목표는 소송을 통해 미국 기업을 괴롭히거나, 더 나아가 미국의 핵심 지적 재산에 대한 접근권이나 영향력을 획득하는 것이었습니다.

메모는 위협의 심각성을 보여주는 구체적인 사례들을 제시합니다.

  • 핵심 기술 분야 공격: 이들의 공격은 반도체, 인공지능(AI), 양자 컴퓨팅, 첨단 소재 등 미국의 미래를 좌우할 핵심 기술 분야에 집중되었습니다.
  • 제재 대상의 연루: 미 상무부의 ‘entity list(수출 통제 명단)’를 포함해 해외자산통제국(OFAC), 무역대표부(USTR) 등 다양한 미국 정부의 감시 목록에 오른, 즉 미국의 국가 안보나 외교 정책 이익에 반하는 활동을 한다고 공식적으로 지정된 단체들이 연루된 정황도 포착되었습니다.
  • 공격 규모의 폭로: 특히 메모는 이 위협의 엄청난 규모를 적나라하게 보여줍니다. DJI, 화웨이(Huawei), SMIC와 같은 기업들이 2019년에서 2024년 사이에만 수십 건의 특허 무효 심판(IPR)을 제기했다는 사실을 사건 번호까지 일일이 나열하며 폭로했습니다. 이것은 산발적인 소송이 아니었습니다. 미국의 특허를 겨냥한 체계적이고 대규모적인 캠페인이었습니다.

3. 세 번째 시사점: 오래된 규칙의 부활이 거대한 변화를 만들었습니다

이번 조치가 더욱 놀라운 점은 완전히 새로운 법이나 규정을 만든 것이 아니라는 사실입니다. USPTO는 복잡한 입법 과정 없이, 기존의 관행이었던 ‘SharkNinja’ 판례를 폐기하고 과거의 엄격한 기준인 ‘Corning Optical’ 판례를 부활시키는 단호하고 명쾌한 방식으로 이 거대한 변화를 이끌어냈습니다.

이는 특허 소송을 제기하려는 잠재적 청원인들, 특히 불투명한 해외 자금과 연계된 이들에게 강력한 메시지를 보냅니다. 이제 더 이상 배후를 숨긴 채 익명의 대리인을 내세워 미국 기업을 공격할 수 없게 된 것입니다.

이번 조치는 해외 자금의 지원을 받는 도전자들에게 두 가지 선택지를 강요합니다. 자신들의 연관성을 투명하게 공개하고 심사와 기각의 위험을 감수하거나, 아니면 아예 도전을 포기하는 것입니다. 이는 표적이 된 미국 혁신가들에게 즉각적이고 실질적인 보호막을 제공하는 효과를 낳습니다.

 

결론: 투명성이 혁신의 미래를 결정한다

USPTO의 이번 결정은 단순한 행정적 변경을 넘어, 미국의 기술 주권을 지키기 위한 중요한 전환점입니다. 투명성을 강화하는 것이 곧 국가 안보를 강화하는 길이라는 명확한 원칙을 세운 것입니다. 보이지 않는 곳에서 미국의 혁신을 위협하던 세력들에게 이제 ‘그림자 속에 숨을 곳은 없다’는 강력한 경고를, 바로 ‘미국의 혁신 기관(America’s Innovation Agency)’의 심장부에서 보낸 셈입니다.

혁신을 둘러싼 글로벌 경쟁이 더욱 치열해지는 지금, 우리의 기술을 보호하기 위해 또 어떤 ‘보이지 않는 규칙’을 바로잡아야 할까요? 이번 결정은 그 첫걸음일 뿐입니다.

 

Sunday, October 26, 2025

See 'Quantum Tunneling,' a Key Principle of Quantum Computers, at Home

   

 

        

Introduction: Touching the Invisible World with My Own Hands

   

What comes to mind when you hear the words ‘Quantum Physics’? You probably picture complex equations, the bizarre world of subatomic particles, and theories far removed from reality. But what if I told you that a magical phenomenon of this strange physics, specifically ‘Quantum Tunneling,’ could be witnessed right in your kitchen with just a simple glass of water?

   

The goal of this article is to weave four of the most astonishing and counterintuitive facts about quantum computing into one easy-to-understand story. You are about to witness light passing through an invisible barrier and gain a new perspective on the quantum world.

   
   

1. Surprising Fact: Quantum Phenomena Also Occur in the ‘Palm-Sized’ Macro World

   

The theme of the 2025 Nobel Prize in Physics is the discovery of ‘Macroscopic Quantum Tunneling’ and ‘Energy Quantization.’ We’ve long thought that quantum phenomena were confined to the microscopic world of atoms and electrons. However, this research shattered conventional wisdom by proving that quantum effects can also operate in electrical circuits the size of your palm—the ‘macroscopic world.’

   

How is this possible? The secret lies in ‘superconductors.’ In an extremely cold superconductor, individual electrons (fermions) pair up to form ‘Cooper pairs.’ These pairs act like different particles called ‘bosons,’ and billions of them can ‘condense’ into a single, massive quantum wave. This macroscopic quantum state became the foundation for the ‘superconducting qubit,’ the core of modern quantum computers.

   

This giant quantum wave demonstrates two miracles. First, it ‘tunnels’ entirely through energy barriers that are classically impossible to overcome. Second, like an atom, it possesses ‘quantized energy levels,’ where energy is divided into discrete steps. By defining the lowest energy level as ‘0’ and the next as ‘1,’ we were able to create stable qubits that are much easier to control than single particles.

   
   

2. Experience It: An Invisible Man in a Glass? Witness ‘Quantum Tunneling’ Yourself

   

Now, it’s time to experience this bizarre quantum tunneling phenomenon for yourself. All you need is a clear glass of water and your finger.

   

Step 1: Create the Barrier (The Disappearing Finger)

   

First, hold the glass of water upright. From this angle, you can't see your fingers holding the outside of the glass. This is due to a phenomenon called ‘Total Internal Reflection.’

   

The ‘barrier’ that light (photons) cannot cross here is the thin ‘air gap’ between the glass and your finger's skin. The light reflecting off your finger is blocked by this air gap, unable to enter the glass and reflecting 100%. That's why your finger becomes invisible to your eyes.

    
   

Step 2: The Principle of Breaching the Barrier (Evanescent Wave)

   

In classical physics, it’s impossible for a particle to pass through a barrier. But in the world of quantum mechanics, the story is different. A particle is also a wave, so it has a ‘probability’ of passing through.

   

When total internal reflection occurs, the light wave doesn't actually vanish completely at the air gap's boundary. Instead, it seeps faintly into the barrier as an ‘Evanescent Wave,’ which then decays exponentially. This wave is normally too weak and short-lived to be detected, but its very existence is the key to tunneling.

    
   

3. The Tunneling Demonstration (The Reappearing Finger)

   

Now, press your finger very firmly against the glass. As the ‘air gap barrier’ between the glass and your skin becomes extremely thin, something amazing happens.

   

The outline and fingerprint of your once-invisible finger begin to faintly appear. This is an analog of ‘Quantum Tunneling.’ As the barrier (the air gap) became thin enough, the tail end of the evanescent wave, before it completely decayed, reached the other side. As a result, photons from your finger probabilistically ‘tunneled’ through the classically impossible air barrier to reach our eyes. You have just experienced the quantum tunneling phenomenon with your own hands.

 
      
   

3. Debunking a Myth: Quantum Computers Are Not a ‘Magic Bullet’

   

One of the biggest misconceptions about quantum computers is the belief that they are ‘super-supercomputers’ that will replace all existing computers. This is fundamentally incorrect.

   
        Some media hype that “quantum computers will solve all the world's problems” is practically fake news.    
   

A quantum computer is not a computer that ‘solves all problems faster.’ Rather, it is a ‘specialized computer’ optimized for solving ‘specific types of problems,’ such as factorization or breaking certain types of encryption. Only for these specific problems do quantum computers show overwhelming efficiency, solving in an instant what would take a classical computer billions of years. For everyday tasks (sending emails, watching videos), classical computers are still far more efficient.

   
   

4. On the Shoulders of Giants: Quantum Computing is a Culmination of Decades of Nobel-Winning Technology

   

The quantum computer we talk about today isn't a technology that appeared overnight. It is the crystalization of human intellect, built up over decades, even a century. This journey has been a history of steps taken on the shoulders of giants. Scientists first learned how to trap a single ion in mid-air with electromagnetic fields (Nobel Prize 1989), then developed techniques to cool atoms to almost absolute zero using lasers (Nobel Prize 1997). Finally, they experimentally proved the bizarre phenomenon of ‘quantum entanglement,’ where two particles remain connected no matter how far apart (Nobel Prize 2022). All of these were essential building blocks for controlling qubits.

   

And the very ‘quantum tunneling’ principle we experienced today led to the creation of the ‘Scanning Tunneling Microscope (STM),’ which allows us to see individual atoms, earning a Nobel Prize in 1986. As you can see, quantum phenomena are not just theories; they are powerful tools for seeing and controlling the microscopic world.

   
   

Conclusion: Toward a New Paradigm of Computation

   

Today, we witnessed quantum tunneling with just a glass, learned this phenomenon also occurs in the palm-sized macro world to form the basis of qubits, debunked the myth of the all-powerful quantum computer, and understood that this technology is a culmination of numerous Nobel Prize-winning achievements.

   

A quantum computer is not a magic wand that will solve every problem. But it is undeniably a ‘new tool that surpasses the limits of classical computation.’ The entire global physics and engineering community is striving to realize that tool.

   

If classical computers defined the 20th century, what intractable problems of the 21st century will this new paradigm of quantum computing solve to define our future?

   
   

References

   
           
  • ActionLabShorts, “Quantum Tunneling At Home,” YouTube (Aug. 1, 2020)
  •        
  • Physics Videos by Eugene Khutoryansky, “Quantum Tunneling (animated),” YouTube (Mar. 4, 2015)
  •    
   

 

양자컴퓨터의 핵심 원리 '양자 터널링', 집에서 확인해보세요

 

서론: 눈에 보이지 않는 세계를 내 손으로 만지다

‘양자물리학’이라는 단어를 들으면 어떤 생각이 드시나요? 아마도 이해하기 어려운 수식, 원자보다 작은 입자들의 기묘한 세계, 현실과는 동떨어진 이론 등을 떠올릴 것입니다. 하지만 모든 것을 관통하는 이 기묘한 물리 법칙, 특히 ‘양자 터널링’이라는 마법 같은 현상이 사실은 우리 집 부엌에 있는 유리잔 하나로 간단하게 목격할 수 있다면 어떨까요?

이 글의 목표는 양자컴퓨터와 관련된 가장 놀랍고 반직관적인 사실 네 가지를 하나의 이야기로 엮어 알기 쉽게 풀어내는 것입니다. 여러분은 곧 보이지 않는 장벽을 뚫고 지나가는 빛을 직접 목격하고, 양자 세계에 대한 새로운 관점을 얻게 될 것입니다.

1. 놀라운 사실: 양자 현상은 ‘손바닥만 한’ 거시 세계에서도 일어난다

2025년 노벨 물리학상의 주제는 ‘거시적 양자 터널링’과 ‘에너지 양자화’의 발견입니다. 우리는 양자 현상이 원자나 전자 같은 아주 작은 미시 세계에만 국한된다고 생각해왔습니다. 하지만 이 연구는 양자 현상이 우리 손바닥만 한 크기의 전기 회로, 즉 ‘거시적 세계’에서도 작동할 수 있다는 사실을 증명하며 통념을 뒤흔들었습니다.

이것이 어떻게 가능할까요? 비밀은 ‘초전도체’에 있습니다. 극저온 상태의 초전도체 안에서 개별적으로 움직이던 전자(페르미온)들은 둘씩 짝을 이룬 ‘쿠퍼 쌍’이 됩니다. 이 쿠퍼 쌍은 마치 다른 입자인 것처럼 ‘보손’으로 행동하며, 수십억 개의 쌍이 하나의 거대한 양자 파동처럼 ‘응축’될 수 있습니다. 이렇게 만들어진 거시적 양자 상태는 현대 양자컴퓨터의 핵심인 ‘초전도 큐비트’의 기반이 되었습니다.

이 거대한 양자 파동은 두 가지 기적을 보여줍니다. 첫째, 고전적으로는 넘을 수 없는 에너지 장벽을 통째로 ‘터널링’하여 통과합니다. 둘째, 원자처럼 에너지가 계단식으로 나뉜 ‘양자화된 에너지 준위’를 가집니다. 바로 이 에너지 준위의 가장 낮은 상태를 ‘0’, 다음 상태를 ‘1’로 정의함으로써, 단일 입자보다 훨씬 제어하기 쉬운 안정적인 큐비트를 구현하게 된 것입니다.

2. 직접 체험: 유리잔 속 투명인간? ‘양자 터널링’ 직접 목격하기

이제 이 기묘한 양자 터널링 현상을 직접 체험해 볼 시간입니다. 물이 담긴 투명한 유리잔과 당신의 손가락만 있으면 됩니다.

1단계: 장벽 만들기 (손가락이 사라지는 현상)

먼저 물이 담긴 유리잔을 세워 잡아보세요. 이때는 유리잔 바깥을 잡고 있는 당신의 손가락이 보이지 않습니다. 이것은 ‘전반사(Total Internal Reflection)’라는 현상 때문입니다.

이때 빛(광자)이 넘지 못하는 ‘장벽’은 바로 유리잔과 손가락 피부 사이의 매우 얇은 ‘공기층’입니다. 당신의 손가락에서 반사된 빛이 공기층 장벽에 가로막혀 유리잔 안으로 들어오지 못하고 100% 반사되기 때문에, 우리 눈에는 손가락이 보이지 않게 되는 것입니다.

2단계: 장벽을 통과하는 원리 (에버네슨트 파동)

고전물리학의 관점에서는 입자는 장벽을 통과하는 것이 불가능합니다. 하지만 양자역학의 세계에서는 이야기가 다릅니다. 입자는 파동이기도 하므로, 장벽을 통과할 ‘확률’을 가집니다.

전반사가 일어날 때, 사실 빛의 파동은 공기층 장벽 경계에서 완전히 사라지지 않습니다. 대신 ‘에버네슨트 파동(Evanescent Wave)’이라는 형태로 장벽 안쪽에 희미하게 스며들어가 지수적으로 빠르게 사라집니다. 이 파동은 너무 약하고 짧게 존재해서 보통은 감지할 수 없지만, 바로 이 존재가 터널링의 열쇠입니다.

3. 터널링 시연 (사라졌던 손가락이 나타나는 현상)

이제 유리잔을 잡은 손가락에 힘을 주어 아주 세게 눌러보세요. 유리와 손가락 피부 사이의 ‘공기층 장벽’이 극도로 얇아지면서 놀라운 일이 벌어집니다.

보이지 않던 손가락의 윤곽과 지문이 희미하게 나타나기 시작합니다. 이것이 바로 ‘양자 터널링’의 아날로그 현상입니다. 장벽(공기층)이 충분히 얇아지자, 완전히 소멸하기 전의 에버네슨트 파동의 끝자락이 장벽 반대편에 닿았습니다. 그 결과, 손가락에서 나온 광자들이 고전적으로는 불가능한 공기층 장벽을 확률적으로 ‘터널링’하여 뚫고 나와 우리 눈에 도달한 것입니다. 지금 당신은 자신의 손으로 양자 터널링 현상을 체험한 것입니다.

3. 오해 바로잡기: 양자컴퓨터는 ‘만능 해결사’가 아니다

양자컴퓨터에 대한 가장 큰 오해 중 하나는, 이것이 기존의 모든 컴퓨터를 대체할 ‘슈퍼 슈퍼컴퓨터’라는 인식입니다. 이는 근본적으로 잘못된 정보입니다.

“양자컴퓨터가 세상의 모든 문제를 해결할 것”이라는 일부 미디어의 과장된 보도는 사실상 가짜 뉴스에 가깝습니다.

양자컴퓨터는 ‘모든 문제를 더 빨리 푸는 컴퓨터’가 아닙니다. 오히려 인수분해나 특정 암호 해독과 같이 ‘특정 유형의 문제’를 해결하는 데 특화된 ‘특화형 컴퓨터’입니다. 이런 특정 문제에 한해서만 양자컴퓨터는 고전 컴퓨터가 수십억 년이 걸려도 풀지 못할 계산을 순식간에 해내는 압도적인 효율을 보입니다. 일상적인 작업(이메일 보내기, 영상 보기 등)은 여전히 기존 컴퓨터가 훨씬 효율적입니다.

4. 거인의 어깨 위에서: 양자컴퓨터는 수십 년간 쌓인 노벨상 기술의 집약체다

오늘날 우리가 이야기하는 양자컴퓨터는 어느 날 갑자기 등장한 기술이 아닙니다. 이것은 수십 년, 길게는 한 세기에 걸쳐 쌓아 올린 인류 지성의 결정체입니다. 이 여정은 거인들의 어깨 위에서 한 걸음씩 나아간 역사입니다. 과학자들은 먼저 전자기장으로 단 하나의 이온을 허공에 가두는 법을 배워냈고(1989년 노벨상), 다음으로는 레이저를 이용해 원자를 거의 정지 상태로 얼리는 기술을 개발했습니다(1997년 노벨상). 그리고 마침내 두 입자가 아무리 멀리 떨어져 있어도 서로 연결되는 ‘양자 얽힘’이라는 기묘한 현상을 실험으로 증명해냈습니다(2022년 노벨상). 이 모든 것이 큐비트를 제어하기 위한 필수적인 빌딩 블록이었습니다.

그리고 우리가 오늘 직접 체험한 바로 그 ‘양자 터널링’ 원리는, 원자 배열을 눈으로 직접 볼 수 있는 ‘주사 터널링 현미경(STM)’을 탄생시켜 1986년 노벨상을 안겨주었습니다. 이처럼 양자 현상은 단순한 이론이 아니라, 미시 세계를 보고 제어하는 강력한 도구 그 자체입니다.

결론: 새로운 계산의 패러다임을 향하여

우리는 오늘 유리잔 하나로 양자 터널링을 직접 목격했고, 이 현상이 손바닥만 한 거시 세계에서도 일어나 큐비트의 기반이 된다는 사실을 배웠습니다. 또한 양자컴퓨터가 만능 해결사가 아니라는 점과, 이 모든 기술이 수많은 노벨상 업적의 집약체라는 사실도 알게 되었습니다.

양자컴퓨터는 모든 문제를 해결해 줄 마법 지팡이는 아닙니다. 하지만 이것이 ‘고전적 계산의 한계를 넘어서는 새로운 도구’라는 사실은 분명합니다. 전 세계의 물리학과 공학계가 바로 그 도구의 구현을 위해 나아가고 있습니다.

고전 컴퓨터가 20세기를 정의했다면, 이 새로운 패러다임의 양자컴퓨터는 21세기의 어떤 난제를 해결하여 미래를 정의하게 될까요?

참고 자료

  • ActionLabShorts, “Quantum Tunneling At Home,” YouTube (Aug. 1, 2020)
  • Physics Videos by Eugene Khutoryansky, “Quantum Tunneling (animated),” YouTube (Mar. 4, 2015)

 

Wednesday, October 22, 2025

How the Patent System Drives Industrial Development: The Link Between Macro and Micro Inventions

 

Macro Inventions, Micro Inventions, and the Patent System’s Contribution to Industrial Growth

This essay builds on the insights shared by Professor Doo Eal Kim (Myongji University, Department of Economics) in his interview, “[In-depth Analysis of the Nobel Prize in Economics: There Is No Growth Without Debate in Korea]” (Understanding, YouTube, Oct. 22, 2025), which discussed the economic utility of micro inventions and the cultural foundations of growth during the British Industrial Revolution.
On this foundation, the essay explores how the patent system connected the disclosure of macro inventions with the proliferation of micro inventive activity, thus contributing structurally to industrial development.

Source: Doo Eal Kim, “In-depth Analysis of the Nobel Prize in Economics: There Is No Growth Without Debate in Korea,”
Understanding (YouTube, Oct. 22, 2025)

 

1. The Hidden Engine of Growth: The Utility of Micro Inventions

Professor Joel Mokyr has emphasized that the essence of technological progress lies not only in great discoveries but also in the continuous accumulation of small-scale improvements.

While a macro invention—such as James Watt’s steam engine—can ignite a new technological paradigm, it is the myriad of micro inventions, those small yet critical refinements, that transform potential into productivity.

Without solving practical issues like steam leakage or pressure stability, Watt’s invention could never have been commercialized.

Thus, the incremental, ground-level improvements made by anonymous engineers and artisans became the true alchemy of industrial growth.

 

2. Britain’s “Culture of Growth” and the Ecology of Knowledge Sharing

Mokyr attributes Britain’s leadership in the Industrial Revolution to what he calls the “Culture of Growth.”

Unlike other nations where innovation remained confined to isolated geniuses, Britain cultivated a scientific mindset—a belief that problems could be solved through universal principles rather than mere craftsmanship.

This intellectual shift linked scientific reasoning with industrial practice, creating a self-reinforcing cycle of innovation.

Institutions like the Lunar Society embodied this open exchange of ideas. Scientists, inventors, and reformers engaged in discussions that crossed disciplinary boundaries, while the Republic of Letters fostered transnational dialogue through correspondence.

Such openness and culture of critical debate were the social incubators where micro inventions flourished.

 

3. The Institutional Alchemy of Patents: From Disclosure to Diffusion

Yet, for micro inventions to spread across society, a mechanism was required to mitigate information asymmetry and institutionalize the sharing of technical knowledge.

Here, the patent system played a pivotal role.

The English Statute of Monopolies (1624) transformed patents from royal privileges into rights contingent on public disclosure.

By the mid-18th century, court precedents like Baker v. James (1753) shifted jurisdiction from the Privy Council to the common law courts, embedding patents within a framework of legal transparency and social legitimacy.

Crucially, the system required inventors to disclose their technical details in specifications.

In doing so, a macro invention was converted into publicly accessible knowledge, which later innovators could refine and build upon.

The publication of patent documents thus formed the institutional feedback loop that enabled continuous micro inventive activity.

In this sense, the patent system functioned as an “institutional alchemy”—granting temporary exclusivity in exchange for permanent contribution to the knowledge commons.

 

4. Modern Implications: Reconstructing the Ecosystem of Collaborative Innovation

The same dynamic persists in today’s frontier industries—AI, biotechnology, and semiconductors.

A macro invention, such as deep learning or next-generation chip architecture, only achieves its transformative power through layers of micro inventive refinement.

In this continuum, the patent system remains the infrastructure balancing protection and disclosure.

Publicly available patent documents now function as a Knowledge Graph—a semantic network connecting inventors, technologies, citations, and applications.

AI systems can learn not just from individual documents but from the relationships and evolutionary pathways embedded within them.

In this way, patent data has become the training corpus for AI-assisted invention, echoing the very role that 18th-century patent disclosures played in fueling the Industrial Revolution.

 

5. Conclusion: Growth Through Disclosure and the Culture of Innovation

In essence, macro inventions are the sparks of innovation, micro inventions are the winds that spread the flame,

and the patent system is the oxygen that keeps it alive.

When openness, critique, and continuous improvement converge,innovation ceases to be an isolated event and becomes a sustainable social system.

Reinvigorating the culture of growth today requires reinforcing the patent system’s role as a forum for knowledge disclosure and debate—

for it is precisely here that the next industrial revolution will find its roots.

 

특허제도는 어떻게 산업 발전을 이끄는가: 매크로와 마이크로 발명의 연결고리

 

혁신의 연금술 — 마이크로 인벤션과 특허제도의 산업 성장 동력

이 글은 유튜브 채널 언더스탠딩(Understanding)에서 공개된 명지대학교 경제학과 김두얼 교수의 인터뷰 「[노벨경제학상 심층분석] 토론 없는 한국 성장도 없습니다」(2025년 10월 22일 방영)에서 다룬 마이크로 인벤션(Micro Invention)의 경제적 유용성과 영국 산업혁명기의 성장 문화를 기초로 한다.
이를 바탕으로, 특허제도가 매크로 발명의 공개와 마이크로 발명 활동의 촉진을 연결하며 산업발전에 기여한 구조적 역할을 함께 고찰하고자 한다.

출처: 김두얼, 「[노벨경제학상 심층분석] 토론 없는 한국 성장도 없습니다」,
언더스탠딩(Understanding), YouTube (2025.10.22)
,

 

1. 경제 성장의 숨은 동력: 마이크로 인벤션의 유용성

경제사학자 조엘 모키어(Joel Mokyr) 교수는 기술 혁신이 경제 성장으로 이어지는 과정을 분석하면서, ‘매크로 인벤션(Macro Invention)’과 ‘마이크로 인벤션(Micro Invention)’의 상호작용을 핵심 개념으로 제시하였다.

그에 따르면, 한 국가의 경제 성장은 단 한 번의 위대한 발명만으로 이루어지지 않으며, 그 이후에 이어지는 수많은 세부적 개량과 현장 개선을 통해서야 비로소 생산성과 산업 구조의 실질적 전환이 가능하다.

마이크로 인벤션은 거대한 발명의 잠재력을 현실의 생산성 향상으로 변환시키는 기술적 연금술(alchemy)이다. 예컨대 제임스 와트의 증기기관이 아무리 혁신적이었다 하더라도, ‘김이 새는 실린더의 밀봉 문제’나 ‘균일한 압력 유지’와 같은 세부 기술이 해결되지 않았다면 산업현장에서의 상용화는 불가능했을 것이다.

결국, 무명의 기술자와 장인들이 수행한 미세한 기술 개선의 연속적 축적이 증기기관의 효율을 극대화하고 산업혁명이라는 구조적 변화를 견인하였다. 이러한 현장 중심의 미시적 혁신의 집적이야말로 경제 성장의 실질적 원동력이었다.

 

2. 영국의 ‘성장의 문화’와 지식 공유 생태계

모키어는 “왜 산업혁명은 유독 영국에서 시작되었는가?”라는 물음에 대해 그 이유를 ‘성장의 문화(Culture of Growth)’에서 찾았다.

영국 사회는 문제 해결을 단순한 직관이나 숙련의 영역에 두지 않고, 자연철학과 과학적 원리에 기초하여 원인과 구조를 탐구하는 사고방식을 확립하였다.

이로써 문제 해결은 일회적 수공업적 기술을 넘어 보편적 지식의 축적으로 발전할 수 있었다. 학문과 산업이 유기적으로 연결된 이러한 문화적 토대가 지속적 혁신의 선순환 구조를 형성하였다.

특히, 루나 소사이어티(Lunar Society)와 같은 지식 교류 모임에서는 과학자, 발명가, 개혁운동가들이 구분 없이 참여해 자유로운 토론을 펼쳤다.

또한, ‘편지 공화국(Republic of Letters)’이라 불리는 서신 네트워크를 통해 국경을 넘어 지식이 교환되고 비판이 이루어졌다.

이러한 개방적 토론과 비판의 문화야말로 마이크로 인벤션이 폭발적으로 일어날 수 있었던 지적 인프라였다.

 

3. 특허제도의 제도적 연금술: 매크로 발명의 공개와 마이크로 발명의 촉진

그러나 마이크로 인벤션이 사회 전반으로 확산되기 위해서는 기술 지식의 비대칭을 해소하고, 지식이 공개·축적될 수 있는 제도적 기반이 필요했다. 바로 이 지점에서 특허제도(patent system)가 결정적인 역할을 수행하였다.

17세기 영국의 특허제도는 단순히 개인에게 독점권을 부여하는 장치가 아니라, 지식의 공개를 전제로 한 사회적 계약(social contract)으로 기능하였다. 1624년에 제정된 Statute of Monopolies는 왕권이 임의로 부여하던 특혜를 제한하고, “새로운 발명을 최초로 수행한 자에게만 합법적 독점권을 부여한다”고 명시하였다.

이후 18세기 들어 특허권은 왕실의 특혜(privilege)에서 개인의 권리(right)로 전환되었으며, 1753년 Baker v. James 사건을 계기로 특허 소송의 관할이 비밀자문위원회(Privy Council)에서 일반법원(Common Law)으로 이양되었다. 이로써 특허는 법적 투명성과 사회적 정당성을 갖춘 제도적 틀 속에 자리 잡았다.

당대의 특허제도는 발명자에게 일정 기간의 배타적 이익을 부여하는 동시에, 그 대가로 명세서(specification)를 통해 기술 내용을 상세히 공개하도록 의무화하였다. 이를 통해 발명은 사적 소유물이 아닌 공공의 자산으로 전환되었다.

그 결과, 매크로 인벤션은 사회 구성원 누구나 접근할 수 있는 공공 지식(public knowledge)으로 환류되었으며, 특허 문헌의 공개는 후속 발명가들이 기존 지식을 기반으로 개량·확장할 수 있도록 하였다. 즉, 하나의 거대한 발명이 공개 특허문헌을 통해 영구적인 사회적 자산으로 전환됨으로써 수많은 파생 발명과 개량 혁신의 토양이 형성된 것이다.

이처럼 특허제도는 ‘독점권의 부여’와 동시에 ‘지식의 공개’를 제도적으로 강제함으로써, 지속적인 마이크로 인벤션의 순환 구조(institutional feedback loop)를 형성하였다. 즉, 일정 기간의 독점권을 부여하는 대신 지식을 영구적인 사회적 자산으로 환류시켜, 경제 성장의 제도적 연금술(institutional alchemy)로 기능한 것이다.

특허가 존재하지 않는 사회에서는 발명자가 기술을 은폐하려는 유인이 강했지만, 특허제도는 이를 공공의 지식 자산(public knowledge)으로 전환시켜 지속적인 혁신을 촉발하는 피드백 구조를 구축하였다. 이 점이 바로 특허제도가 산업혁명과 근대 기술진보의 실질적 촉매로 평가되는 이유이다.

 

4. 현대적 시사점: 지식 공개와 협력적 혁신 생태계의 재구성

오늘날 인공지능, 바이오, 반도체 등 첨단 산업에서도 매크로 인벤션(예: 딥러닝, 반도체 구조 혁신)은 이미 이루어졌지만, 그 잠재력을 산업의 효율과 생산성 향상으로 연결시키는 것은 여전히 수많은 마이크로 인벤션의 연속적 축적에 달려 있다.

이 과정에서 특허제도는 혁신의 보호와 공개의 균형을 유지하는 제도적 인프라로 작동한다.

특히 공개된 특허문헌은 현대의 ‘지식 그래프(Knowledge Graph)’로 기능한다. 이는 단순한 데이터베이스가 아니라, 발명자·기술·인용관계·응용분야 간의 의미적 연결망(semantic network)을 형성하는 지식 구조이다.

이 거대한 네트워크를 통해 AI는 단순히 문서의 내용을 학습하는 것이 아니라, 문서들 사이의 관계와 기술 진화의 계보를 학습하게 된다. 이러한 구조 덕분에 공개 특허는 AI 기반 발명 지원 시스템의 핵심 학습 데이터로 활용되고 있다.

이는 18세기의 명세서 공개가 산업혁명기의 마이크로 인벤션을 촉진한 것과 동일한 구조적 역할을 현대적으로 계승한 사례라 할 수 있다.

결국 혁신의 본질은 ‘보호와 공개의 균형’을 통해 지식이 순환하고 누적되는 생태계를 유지하는 것이며, 특허제도는 그 순환을 가능하게 하는 지식 인프라의 핵심 제도이다.

 

5. 결론: 공개를 통한 성장, 제도로서의 혁신문화

요컨대, 매크로 인벤션은 혁신의 불씨이고, 마이크로 인벤션은 그 불을 산업 전반으로 확산시키는 바람이다.

그리고 특허제도는 그 불이 꺼지지 않도록 산소를 공급하는 제도적 장치이다.

지식의 공개와 공유, 그리고 자유로운 비판과 개선의 문화가 결합될 때, 혁신은 단발적 사건이 아니라 지속 가능한 사회적 시스템으로 진화한다.

오늘날 우리가 다시금 ‘성장의 문화’를 논해야 하는 이유는, 바로 이 지점에서 지식 공개와 토론의 장을 제도적으로 보장하는 특허제도의 강화를 통해 새로운 산업혁명의 가능성이 열리기 때문이다.

 

Monday, October 20, 2025

The Magic Key to 2X AI Creativity: The Complete Guide to 'Verbalized Sampling' Probability Distribution

 

Solving AI’s ‘Mode Collapse’ with Just One Prompt Line! Tired of LLM’s predictable answers? A deep dive into the Distributional Probability Principle and application of ‘Verbalized Sampling,’ the technique radically boosting AI creativity.

Have you ever been disappointed expecting fresh ideas or diverse answers from Large Language Models (LLMs), only to get similar, predictable results every time? Ask an AI for a joke, and you often get a familiar, repeated response. This phenomenon is what AI researchers call ‘mode collapse.’

Is this really a technical limitation of AI? Recent research by Zhang revealed the surprising cause of this mystery and an incredibly simple solution: ‘Verbalized Sampling.’ In this post, we’ll dive deep into the principles of this powerful ‘Distribution-Level Prompt’ strategy for unlocking AI's creativity.

 

1. The Real Culprit Isn't the AI, It's Our ‘Bias for Familiarity’

The core reason LLMs default to repetitive answers is, ironically, a human bias embedded in the training data: what we call the ‘Typicality Bias.’

Because of this human bias, during the fine-tuning process (RLHF), human evaluators subconsciously rate predictable, ‘safe’ answers higher than novel, creative ones. As this feedback accumulates, the model suffers mode collapse, concentrating its probability mass onto the most typical answer—the ‘Mode.’ That’s why you get the same joke five times.

💡 The Mode Collapse Analogy
It’s like a chef repeatedly recommending only steak, the dish customers order most. Although the model can create diverse dishes (candidate responses), it focuses only on the most typical one, losing diversity (creativity).

 

2. How to Awaken Dormant Creativity: Demand a ‘Menu with Probabilities’

Verbalized Sampling (VS) is a prompt strategy designed to fix this mode collapse by asking the LLM to “explicitly verbalize the response distribution and corresponding probabilities.” Researchers term this a ‘Distribution-Level Prompt.’

Probability Meaning: A ‘Relative Distribution Ratio,’ Not the Correct Answer Probability

The probability value VS presents (e.g., 0.45) is not the objective probability of being correct (which should be near 1.0). Instead, this value represents the Relative Ratio (Distributional Likelihood) of that response being selected among the candidates the model generated, quantifying how plausible and natural the model considers the answer internally.

Chef Analogy: Applying VS is like asking the chef to show you the full expected order distribution:

“Today’s recommendations are: Steak (probability 0.45), Pasta (0.25), Sushi (0.20)...”
In actual creative tasks, the probability of the most dominant candidate might be lower, like 0.15. The 0.45 is an example of the most dominant relative distributional share; it’s a key metric that helps the LLM distribute probability mass across various responses, restoring the original pre-trained distribution.

LLM Response Style and Probability Meaning Comparison

Category Standard LLM (Direct Prompting) Verbalized Sampling (VS Approach)
Probability Distribution State Probability mass concentrated on the Mode (Mode Collapse) Probability mass distributed among various candidates (Distribution Restoration)
Meaning of the Probability Value (For multi-choice, etc.) Approaching the probability of being correct (∼ 0.99) The most dominant Relative Ratio of the Distribution among diverse candidates (≪ 1.0)
Primary Use Case Fact-based QA Creative Writing, Open-Ended QA

📝 Verbalized Sampling (VS) Prompt Instruction Example

When applying VS, you must include a structural instruction telling the AI to explicitly list the ‘candidate ideas and their probabilities’ before generating the final answer.

<instructions>
Generate 5 responses to the user query, each within a separate <response> tag.
Each <response> must include a <text> and a numeric <probability> (option: within the range [0.0, 1.0]).
Randomly sample the final response from these 5 options, considering the probability.
</instructions> 
  • Key: Use "instructions" tags or similar methods to enforce the AI’s thought process.
  • Effect: The AI is forced to consider diverse answers (low probability) in addition to the most typical one (high probability).

 

3. The Smarter the AI, the More Explosive the Effect: Diversity Control via Probability Thresholds

The most surprising discovery of the VS technique is the ‘Emergent Trend’: the larger and more capable the model, the more dramatic the effect. Research shows cutting-edge large models like GPT-4 saw a diversity improvement that was 1.5 to 2 times greater than smaller models. This suggests VS can be the ‘key’ to fully unlocking the hidden creativity in the most powerful AI models.

🚀 Tune AI Creativity Like a Dial (Diversity Tuning)
A major advantage of VS is the ability to directly control the output diversity level by setting a probability threshold.
By instructing the AI to “randomly sample from the long-tail portion of the distribution where the response probability is below {threshold},” the AI is prompted to generate rare, creative answers it wouldn’t typically select. Lowering this threshold increases originality.

Conclusion: Explore AI’s Potential with ‘Distribution-Level Prompts’

‘Verbalized Sampling’ is a powerful, yet simple, solution that addresses mode collapse stemming not from AI limitations, but from the human ‘Typicality Bias.’ This technique is applicable to models without additional training and maximizes the creativity of high-performance models.

This discovery represents a fundamental paradigm shift in how we interact with AI. We are moving past the era of ‘commanding’ a single answer from AI, into one where we collectively ‘explore’ the vast possibilities of its knowledge.

🧠

Verbalized Sampling Summary Card

1. Root Cause: Not an AI issue, but the human ‘Typicality Bias.’
2. Core Mechanism: Forces AI to verbalize its probability distribution (Distribution-Level Prompt).
3. Probability 0.45 Meaning: An example of the most dominant relative distributional share among creative candidates.
4. User Control: Diversity tuning is possible by setting a probability threshold in the prompt.
The simplest, most powerful way to unleash AI's hidden creativity!

Frequently Asked Questions (FAQ)

Q: What does the displayed probability value (e.g., 0.45) mean, and why isn’t it close to 1.0?
A: This value represents the Relative Ratio of selection compared to the model's overall expected distribution. VS mitigates mode collapse by forcing the model to distribute probability mass across various candidates. Therefore, it is not the probability of being correct (like 99% in a multiple-choice), but an example of the most dominant relative distributional share in multi-answer domains.
Q: What types of LLM tasks are most effectively improved by Verbalized Sampling?
A: It is most effective in tasks where multiple valid answers exist (multi-answer domains), such as creative writing, dialogue simulation, and Open-Ended QA. It significantly boosts diversity in these tasks.
Q: What are the advantages of setting a low probability threshold?
A: Lowering the threshold prompts the model to generate rare, creative, or exceptional answers (the long-tail of the distribution) that it typically wouldn't choose. This is extremely useful for generating original ideas.

We are moving past the era of ‘commanding’ a single answer from AI, into one where we collectively ‘explore’ the vast possibilities of its knowledge. In your next prompt, try applying this powerful Verbalized Sampling technique to unleash your AI’s hidden creativity! If you have any questions or VS tips of your own, please share them in the comments! 😊

 

AI에게 창의력을 장착하는 마법: '버벌라이즈드 샘플링' 프롬프팅 가이드

 

AI의 ‘모드 붕괴’ 현상, 단 한 줄의 프롬프트로 해결! LLM의 예측 가능한 답변에 지치셨나요? 최신 연구를 통해 AI 창의력을 획기적으로 높이는 ‘버벌라이즈드 샘플링’ 기법의 분포 확률 원리와 적용법을 심층 분석합니다.

대규모 언어 모델(LLM)에게 참신한 아이디어나 다채로운 답변을 기대했지만, 매번 비슷하고 예측 가능한 결과만 받아보고 실망한 적이 있으시죠? AI에게 농담을 부탁하면 어디선가 들어본 듯한 답변만 반복됩니다. 이 현상을 AI 연구 분야에서는 ‘모드 붕괴(mode collapse)’라고 부릅니다.

이 문제가 과연 AI의 기술적 한계 때문일까요? 최근 Zhang의 연구는 이 미스터리의 놀라운 원인과 상상 이상으로 간단한 해결책, 즉 ‘버벌라이즈드 샘플링(Verbalized Sampling)’을 제시했습니다. 이 글에서는 AI의 창의성을 깨우는 이 강력한 ‘분포 수준 프롬프트’ 전략의 원리를 상세히 알아볼 거예요.

 

1. 진짜 원인은 AI가 아니라 ‘익숙함을 선호하는 우리’의 편향이었습니다

LLM이 반복적인 답변만 내놓는 모드 붕괴의 핵심 원인은 아이러니하게도 AI를 학습시킨 데이터에 내재된 우리 인간의 편향입니다. 바로 ‘익숙함 선호 편향(Typicality Bias)’이라는 인지적 경향 때문이죠.

이러한 인간적인 편향 때문에, AI를 미세 조정하는 과정(RLHF)에서 인간 평가자들은 자신도 모르게 새롭고 독창적인 답변보다 예측 가능하고 ‘안전한’ 답변에 더 높은 점수를 주게 됩니다. 이 피드백이 누적되면서, 모델은 확률 질량을 가장 전형적인 답인 ‘모드(Mode)’ 하나에 집중시키는 모드 붕괴 현상을 겪게 됩니다. 농담을 5번 요구해도 같은 농담만 반복하는 이유입니다.

💡 모드 붕괴(Mode Collapse)의 비유
셰프가 고객들이 가장 많이 시키는 메뉴인 스테이크만 계속 추천하는 문제와 같습니다. 다양한 요리(응답 후보)를 만들 수 있음에도, 모델이 가장 전형적인 답변 하나에만 편중되어 다양성(창의력)을 잃는 현상입니다.

 

2. 잠자는 창의력을 깨우는 법: ‘확률이 표시된 메뉴판’을 요구하세요

버벌라이즈드 샘플링(Verbalized Sampling, VS)은 이 모드 붕괴를 해결하기 위해 LLM에게 “응답 분포와 해당하는 확률을 명시적으로 언어로 표현하도록(verbalize)” 요청하는 프롬프트 전략입니다. 연구진은 이를 ‘분포 수준 프롬프트(Distribution-level prompt)’라고 명명합니다.

확률의 의미: 정답 확률이 아닌 ‘상대적 분포 비율’

VS가 제시하는 확률값(예: 0.45)은 객관적인 정답일 확률(이 경우 1.0에 가까워야 함)이 아닙니다. 이 값은 모델이 생성한 응답 후보들 사이에서 해당 응답이 선택될 상대적인 비율(Distributional Likelihood)을 의미하며, 모델 내부에서 해당 답변이 얼마나 자연스럽고 타당하게(plausible) 여겨지는지를 수치로 표현한 것입니다.

셰프 비유: VS를 적용하면 셰프가 다음과 같이 전체 예상 주문 비율을 보여주는 것과 같습니다:

“오늘의 추천은 스테이크(확률 0.45), 파스타(0.25), 초밥(0.20)….”
실제 창의적 태스크에서는 가장 우세한 후보의 확률이 0.15처럼 더 낮을 수도 있습니다. 0.45는 가장 우세한 후보가 차지하는 상대적 몫의 예시이며, LLM이 확률 질량을 다양한 응답에 걸쳐 분산시키고 원래의 사전 학습 분포를 복원하도록 돕는 핵심 지표입니다.

LLM 응답 방식 및 확률의 의미 비교

구분 일반 LLM (단일 응답) 버벌라이즈드 샘플링 (VS 방식)
확률 분포 상태 확률 질량 모드에 집중 (모드 붕괴) 확률 질량 다양한 후보에 분산 (분포 복원)
확률값의 의미 (객관식 등) 정답일 확률에 근접 (∼ 0.99) 다양한 후보 중 가장 우세한 상대적 분포 비율 (≪ 1.0)
주요 활용 영역 사실 기반 질문 (Fact-based QA) 창의적 글쓰기, 개방형 질의응답(Open-Ended QA)

📝 버벌라이즈드 샘플링 (VS) 프롬프트 지침 예시

VS를 적용할 때는 AI가 최종 답변을 내기 전에 ‘후보 아이디어와 그 확률’을 반드시 명시적으로 제시하도록 구조적 지시를 포함해야 합니다.

<instructions>
Generate 5 responses to the user query, each within a separate <response> tag.
Each <response> must include a <text> and a numeric <probability> (option: within the range [0.0, 1.0]).
Randomly sample the final response from these 5 options, considering the probability.
</instructions> 
  • 핵심: "instructions" 태그 등을 사용하여 AI의 사고 과정을 강제합니다.
  • 효과: AI는 가장 전형적인 답변(높은 확률) 외의 다양한 답변(낮은 확률)도 의무적으로 고려하게 됩니다.

 

3. 더 똑똑한 AI일수록 효과는 폭발적입니다: 확률 임계치를 통한 다양성 제어

VS 기법의 가장 놀라운 점은 더 크고 유능한 모델일수록 효과가 더 극적으로 나타난다는 ‘창발적 경향(Emergent Trend)’입니다. 연구 결과, GPT-4와 같은 최첨단 대형 모델은 소형 모델에 비해 다양성 향상폭이 1.5배에서 2배 더 컸습니다. 이는 VS가 가장 강력한 AI 모델의 숨겨진 창의력을 최대한 끌어내는 ‘열쇠’가 될 수 있음을 시사합니다.

🚀 AI 창의성을 ‘다이얼’처럼 조절하세요 (다양성 튜닝)
VS의 중요한 이점은 확률 임계치(probability threshold)를 설정하여 출력 다양성 수준을 직접 제어할 수 있다는 점입니다.
사용자가 “응답 확률이 {임계치} 이하인 분포의 꼬리(long-tail) 부분에서 무작위로 샘플링하라”고 지시하면, AI는 평소에 잘 선택하지 않던 희귀하고 창의적인 답변을 생성하도록 유도됩니다. 이 임계치를 낮출수록 독창성은 증가합니다.

결론: ‘분포 수준 프롬프트’로 AI의 가능성을 탐험하라

‘버벌라이즈드 샘플링’은 AI의 한계가 아닌 인간의 ‘익숙함 선호 편향’에서 비롯된 모드 붕괴를 해결하는 강력하고 간단한 솔루션입니다. 이 기법은 별도의 훈련 없이 모델에 적용 가능하며, 고성능 모델의 창의력을 극대화합니다.

이 발견은 우리가 AI와 상호작용하는 방식의 근본적인 패러다임 전환을 의미합니다. 우리는 이제 AI에게 단일 정답을 ‘명령’하는 시대를 지나, AI가 가진 지식의 광대한 가능성을 함께 ‘탐험’하는 시대로 나아가고 있습니다.

🧠

버벌라이즈드 샘플링 요약 카드

1. 근본 원인: AI의 문제가 아닌 인간의 ‘익숙함 선호 편향’
2. 핵심 메커니즘: AI가 잠재적 확률 분포를 언어화하도록 강제 (분포 수준 프롬프트)
3. 확률 0.45 의미: 창의적 답변 후보 중 가장 우세한 상대적 분포 비율의 예
4. 사용자 제어: 프롬프트 내 확률 임계치 설정으로 다양성 튜닝 가능
AI의 숨겨진 창의력을 여는 가장 간단하고 강력한 방법!

자주 묻는 질문 (FAQ)

Q: 표시된 확률값(예: 0.45)은 무엇을 의미하며, 왜 1.0에 가깝지 않나요?
A: 이 값은 해당 응답이 모델의 전체 예상 분포 대비 선택될 상대적 비율을 나타냅니다. VS는 모델에게 확률 질량을 다양한 후보에 걸쳐 분산하도록 강제하여 모드 붕괴를 완화합니다. 따라서 이 값은 정답일 확률(객관식 99%)이 아니라, 다중 정답 영역에서 가장 우세한 후보가 차지하는 상대적인 분포의 몫의 예입니다.
Q: 버벌라이즈드 샘플링은 어떤 종류의 LLM 작업에 가장 효과적인가요?
A: 주로 창의적 글쓰기, 대화 시뮬레이션, 개방형 질의응답(Open-Ended QA)처럼 여러 개의 타당한 답변이 존재하는 작업(다중 정답 가능 영역)에 가장 효과적입니다. 이러한 작업에서 다양성을 획기적으로 향상시킵니다.
Q: 확률 임계치를 낮게 설정하면 어떤 이점이 있나요?
A: 임계치를 낮게 설정할수록 모델은 평소에 잘 선택하지 않던 희귀하고 창의적이거나 예외적인 답변(분포의 꼬리 부분)을 생성하도록 유도됩니다. 이는 독창적인 아이디어를 얻는 데 매우 유용합니다.

우리는 이제 AI에게 ‘단 하나의 정답’만을 강요하는 시대를 벗어나, AI가 가진 지식의 광대한 가능성을 함께 ‘탐험’하는 시대로 나아가고 있습니다. 여러분의 다음 프롬프트에서는 이 강력한 버벌라이즈드 샘플링을 적용해 숨겨진 AI의 창의력을 폭발시켜 보세요! 더 궁금한 점이나 여러분만의 VS 활용 팁이 있다면 댓글로 물어봐주세요! 😊

 

Saturday, October 18, 2025

효율성 vs 실질적 정의: 미국/한국 특허법원이 추구하는 상반된 철학 분석

 

특허 전쟁의 승패는 ‘절차’에 달려있다! 미국과 한국의 특허 소송은 ‘청구항 해석’ 기준은 같지만, 심판 단계 주장 포기 시 항소심에서 기각되는 미국 법리법원에서 새로운 주장/증거 제출이 폭넓게 허용되는 한국 법리라는 근본적인 절차적 차이를 보입니다. 양국이 추구하는 법철학(효율성 vs. 실질적 정의)을 심도 있게 비교 분석합니다.

글로벌 비즈니스의 세계에서 법률 시스템은 종종 비슷해 보입니다. 특히 특허법처럼 고도로 전문화된 분야는 더욱 그렇습니다. 하지만 제가 실무에서 경험해 보니, 겉모습 아래에는 각 나라의 역사와 법철학이 담긴 근본적인 차이가 숨어 있더라고요. 마치 같은 재료로 요리하지만, 레시피와 조리 방식이 전혀 다른 두 명의 셰프와 같습니다.

특히, 혁신의 성패를 가르는 특허 분쟁 분야에서 미국과 한국은 놀라울 정도로 다른 접근 방식을 취합니다. 당신이 글로벌 시장을 무대로 활동하는 기업가, 발명가, 또는 법률 전문가라면 이 차이를 아는 것은 단순한 지적 호기심을 넘어 비즈니스의 생존 전략이 될 수 있습니다. 지금부터 미국과 한국 특허 소송의 핵심에 숨겨진, 양국 법리의 놀라운 차이점을 파헤쳐 보겠습니다.

 

1. 같은 답, 다른 풀이: 해석 기준은 같지만 주장 시점은 정반대

가장 놀라운 역설부터 시작해 볼까요? 특허의 권리 범위를 정하는 ‘청구항 해석(Claim Construction)’의 핵심 기준에서 미국과 한국은 사실상 같은 답에 도달했습니다. 양국 모두 특허 용어의 의미를 해당 기술 분야의 ‘통상의 기술자(POSITA)’가 이해하는 객관적 의미로 파악해야 한다고 봅니다. 즉, “어떻게 해석할 것인가?”라는 실체적 질문에는 같은 목소리를 내는 셈입니다.

하지만 극적인 반전이 일어나는 것은 바로 “그 해석에 관한 주장을 언제, 어떻게 할 수 있는가?”라는 절차적 질문입니다. 이 절차적 차이는 사소한 것이 아니라, 속도와 완결성을 추구하는 법률 세계와 유연성과 정확성을 추구하는 법률 세계로 이어지는 근본적인 갈림길입니다.

 

2. 한 번 뱉은 말은 주워 담을 수 없다: 미국의 엄격한 ‘실권 원칙’

미국 특허 소송은 ‘전방 집중형(Front-Loaded)’ 구조를 가집니다. 모든 화력을 초반에 집중해야 한다는 의미이며, 그 중심에는 ‘실권(Forfeiture) 원칙’이라는 가혹할 정도로 엄격한 규칙이 자리 잡고 있습니다. 핵심은 이겁니다. 특허심판원(PTAB) 절차에서 제기하지 않았던 새로운 주장은, 상급심인 연방순회항소법원(CAFC)에서 절대 받아들여지지 않는다는 것입니다.

미국 법원이 이 엄격한 원칙을 고수하는 데에는 세 가지 중요한 정책적 이유가 있습니다:

  • 전문 기관 존중: 기술 전문성을 갖춘 PTAB이 1차적으로 사실관계를 확정하고 기록을 형성하는 기관임을 보장합니다.
  • 사법 효율성: 항소심에서 새로운 주장을 금지하여 불필요한 재판 지연을 막고 분쟁을 신속하게 종결합니다.
  • ‘샌드배깅(Sandbagging)’ 방지: 당사자가 유리한 주장을 숨겨두었다가 항소심에서 기습적으로 제기하는 비겁한 전략을 차단합니다.

1.3 최근 판례 동향(2020-2025): 실무상 원칙의 적용

CAFC는 최근 5년간의 판례를 통해 실권 원칙을 단순히 선언적인 원칙이 아닌, 실제 사건에서 엄격하게 적용되는 규율임을 명확히 하고 있습니다. 대표적인 사례는 2025년의 Case1Tech, LLC v. Squires 판결입니다. 이 사건에서 특허권자인 Case1Tech는 PTAB에서는 청구항의 ‘분석(analysis)’이라는 용어가 ‘소음 노출량의 계산(calculation of noise dosage)’을 의미한다고 주장했습니다. 그러나 PTAB에서 패소하자, CAFC 항소심에서는 ‘분석’‘소음 노출량 계산을 포함하는(includes the calculation of noise dosage)’ 더 넓은 의미라고 주장을 변경했습니다.

주의하세요! (Case1Tech 판결)
CAFC는 이러한 주장 변경을 ‘실권’을 이유로 일축했습니다. PTAB에서 ‘분석은(~is) 계산이다’라고 주장했던 당사자가 항소심에서 ‘분석은 계산을 포함한다(~includes)’라고 말을 바꾸는 것은 허용될 수 없다고 판단한 것입니다. 이는 주장의 미묘한 뉘앙스 변경조차도 새로운 주장으로 간주되어 실권될 수 있음을 보여주는 강력한 예시입니다.

또한, 2020년의 In re: Google Technology Holdings LLC 판결은 실권 원칙의 정책적 근거를 재확인했습니다. 이 사건에서 구글은 심사관의 거절결정에 불복하여 PTAB에 항소했으나, 청구항 해석에 대한 구체적인 주장은 제기하지 않았습니다. 이후 CAFC 항소심에 이르러서야 비로소 특정 용어의 해석이 잘못되었다고 주장했습니다. CAFC는 구글이 PTAB에 관련 주장을 제기하지 않음으로써 “전문 기관이 그 중요한 역할을 수행할 기회를 박탈했다”고 지적하며, 해당 주장은 실권되었다고 판시했습니다.

이러한 판례들은 CAFC가 절차적 규율을 유지하기 위해 실권 원칙을 적극적으로 집행하고 있음을 보여줍니다. 설령 그 결과가 항소인에게 가혹하게 작용하더라도, 절차적 안정성과 예측 가능성을 우선시하는 법원의 확고한 입장을 확인할 수 있습니다. 이는 특히 AI나 바이오와 같이 기술 용어의 의미가 유동적이고 다의적인 첨단 기술 분야에서 심각한 도전이 될 수 있습니다. 이 분야의 특허 소송 당사자들은 초기 단계에서 모든 가능한 해석의 갈래를 예측하고 대비해야 하는 부담을 안게 됩니다.

첨단 기술 분야의 딜레마

최선의 법률적 주장이 절차적 미비로 인해 아예 심리조차 받지 못하고 기각될 위험이 상존하는 것입니다. 이는 절차적 순수성을 실체적 정확성보다 우선시하는 미국 시스템이 첨단 기술 분야의 복잡성을 해결하는 데 적합한지에 대한 근본적인 질문을 제기합니다.

미국 시스템에서 PTAB 단계는 단순한 예선전이 아니라, 모든 것을 걸어야 하는 결승전인 셈입니다.

 

3. 정의를 위해서라면 괜찮아: 한국의 유연한 ‘실질적 정의’ 추구

미국의 엄격함과 정반대편에 한국의 유연한 ‘후방 집중형(Back-Loaded)’ 시스템이 있습니다. 한국 특허법원에서 진행되는 심결취소소송에서는 심판 단계에서 주장하지 않았던 새로운 주장이나 증거 제출을 매우 폭넓게 허용합니다.

이것이 가능한 이유는 특허법원의 심결취소소송이 행정소송의 일종이기 때문입니다. 법원의 주된 임무는 특허청의 심판원 심결이라는 행정처분의 ‘위법성 전반’을 심사하는 것이며, 절차적 흠결을 넘어 ‘그 결론’이 실체적으로 올바른지를 다시 판단하는 데 핵심이 있습니다. 따라서 올바른 결론을 내리기 위해서라면 새로운 주장이나 증거도 적극적으로 검토해야 한다는 ‘실질적 정의 실현’이라는 가치를 최우선으로 둡니다.

💡 통계로 본 한국 법원의 역할
한국 특허법원이 특허심판원의 심결을 취소하는 비율은 약 25%에 달합니다. 이는 네 건 중 한 건은 법원에 가서 결과가 뒤집힌다는 의미로, 법원이 행정기관의 결정을 얼마나 철저하게 사법적으로 통제하고 있는지를 보여줍니다.

물론 한국 시스템에도 단점은 있습니다. 분쟁 해결이 최종적으로 확정되기까지 시간이 오래 걸릴 수 있고, 당사자들이 특허심판원 단계를 ‘예선전’처럼 가볍게 여기고 핵심 카드를 법원을 위해 아껴두는 샌드배깅과 유사한 전략을 취하게 만들 수도 있습니다.

 

4. 효율성 vs. 정확성: 법 시스템에 담긴 두 나라의 다른 철학

지금까지 살펴본 법리적 차이는 단순한 법 기술의 문제가 아니라, 각국 사법 시스템이 어떤 가치를 더 중요하게 여기는지 보여주는 철학의 차이를 반영합니다. 이 두 나라의 시스템을 표로 비교하면 그 차이가 더욱 명확하게 드러납니다.

특징 미국 (US) 대한민국 (KR)
핵심 법리 실권 원칙: PTAB에서 놓친 주장은 항소심에서 제기 불가. 한번 기회는 끝. 심리 범위 확대: 법원에서 새로운 주장/증거 제출 가능. 실체적 진실을 우선.
소송 전략 전방 집중형 (Front-Loaded): 모든 카드를 PTAB에 쏟아부어야 함. ‘샌드배깅’ 불가능. 후방 집중형 (Back-Loaded): 심판원은 예선전, 법원에서 본게임을 치르는 전략 가능.
정책 목표 법적 안정성 & 효율성: 신속한 분쟁 종결과 예측 가능성 중시. 실질적 정의 & 정확성: 행정기관의 오류를 바로잡고 올바른 결론 도출을 중시.

 

5. 조화롭고 견고한 제도를 위한 정책 제언

법적 안정성과 실질적 정의 사이의 최적의 균형점을 찾기 위해, 양국의 경험을 바탕으로 다음과 같은 다섯 가지 정책적 제언을 고려할 수 있습니다.

  1. 미국 실권 원칙에 대한 ‘정당한 사유(Good Cause)’ 예외 도입: 현재 엄격한 ‘예외적 상황’ 기준을 완화하여, 항소인이 PTAB에서 해당 주장을 제기하지 못한 데 ‘정당한 사유’가 있음을 입증하는 경우 CAFC가 예외적으로 새로운 청구항 해석 주장을 심리하도록 허용해야 합니다.
  2. CAFC의 적극적인 환송(Remand) 권한 활용: CAFC가 심리 중 잠재적으로 결정적이지만 당사자들이 주장하지 않은 청구항 해석 쟁점을 발견한 경우, 해당 쟁점에 대한 심리를 위해 사건을 PTAB으로 환송할 수 있는 권한을 더 적극적으로 활용해야 합니다.
  3. 대한민국 특허법원의 변론 준비 절차 강화: 한국 모델의 비효율성을 개선하기 위해, 법원이 변론 준비 절차를 강화하여 당사자들이 소송 초기에 새로운 주장이나 증거를 모두 제출하도록 강제하는 방안을 고려해야 합니다.
  4. 첨단 기술 분야 청구항 해석에 대한 양국 특허청의 공동 가이드라인 마련: AI, 바이오 등 신기술 분야에서 청구항 해석의 불확실성을 줄이기 위해, USPTO와 KIPO가 협력하여 공동 가이드라인을 개발 및 발표해야 합니다.
  5. PTAB/특허심판원 절차 초기에 ‘쟁점 정리서’ 제출 의무화: 양국 모두 행정 심판 절차 초기에 당사자들이 합의 및 다툼이 있는 청구항 해석을 명시한 공동 ‘쟁점 정리서’를 제출하도록 의무화하여 심리 효율을 높여야 합니다.

핵심 요약: 시스템이 추구하는 가치

미국과 한국의 특허 소송 시스템이 추구하는 상반된 가치들을 한눈에 요약합니다.

⚖️

법철학 관점의 특허 소송 비교

미국 시스템: 법적 안정성 & 효율성 중시. 전방 집중형(Front-Loaded).
한국 시스템: 실질적 정의 & 정확성 중시. 후방 집중형(Back-Loaded).
미국 절차 특징: PTAB에서 놓친 주장은 CAFC에서 실권 처리. 예측 가능하지만 가혹함.
한국 절차 특징: 특허법원에서 새로운 주장/증거 제출 가능. 유연하지만 불확실성이 김.

자주 묻는 질문 (FAQ)

Q: 미국에서 ‘실권 원칙’이 적용되는 주장은 무엇입니까?
A: PTAB(특허심판원) 절차에서 제기하지 않았던 새로운 주장, 특히 청구항 해석에 관한 새로운 주장은 상급심인 CAFC에서 실권 원칙에 의해 받아들여지지 않습니다.
Q: 한국 특허법원이 심판원 심결을 취소하는 비율은 왜 높습니까?
A: 한국 특허법원은 심결취소소송이 행정처분의 위법성 전반을 심사하는 것이므로, 실질적 정의 실현을 위해 심판 단계에서 제출되지 않은 새로운 주장이나 증거도 폭넓게 검토하기 때문입니다.
Q: 첨단 기술 특허 분쟁에서 이 법리 차이가 중요한 이유는 무엇입니까?
A: AI, 바이오 등 첨단 기술 용어는 의미가 유동적이어서, 미국처럼 초기에 주장이 고정되면 이후 기술 변화를 반영할 수 없는 절차적 리스크가 커지기 때문입니다.

미국과 한국의 특허 소송 시스템은 결국 ‘법적 안정성’과 ‘실질적 정의’라는 두 가지 중요한 가치 사이에서 서로 다른 선택을 한 결과물입니다. 예측 가능하고 신속하지만 때로는 가혹한 미국과, 정확한 결론을 위해 시간과 유연성을 허락하지만 불확실성이 긴 한국. 어느 한쪽이 우월하다고 말하기는 어렵습니다. 마지막으로 이 글을 읽는 당신에게 질문을 던집니다. 당신의 비즈니스에는 어느 쪽이 더 유리하다고 생각하십니까? 😉

※ 법적 고지 (Legal Notice) ※
본 블로그 포스트는 일반적인 정보 제공을 목적으로 하며, 특정 사안에 대한 법률적 자문을 대체할 수 없습니다. 개별적인 법률 문제에 대해서는 반드시 전문가와 상담하시기 바랍니다.
This blog post is for general informational purposes only and cannot substitute for legal advice on specific matters. Please be sure to consult with a professional regarding individual legal issues.

 

당신이 알아야 할 데이터 거인: 팔란티어와 스노우플레이크 심층 분석

  시작점부터 데이터 철학, 그리고 AI 전략까지, 두 거대 테크 기업의 핵심을 심층 비교 분석합니다. 데이터가 핵심인 AI 시대, 두 거인의 전략은? 이 글에서는 최근 가장 주목받는 두...