Tuesday, September 30, 2025

AI 환각과 구글 특허: 트랜스포머가 AI 시대를 연 비결

 

AI는 왜 때때로 사실이 아닌 정보를 자신 있게 말할까요? 그 비밀은 언어 모델의 핵심 구조인 ‘Transformer’와 그 기술을 둘러싼 특허 전략 속에 숨겨져 있습니다.

AI의 답변, 어디까지 믿어야 할까요? 이 글에서는 언어 모델의 판도를 바꾼 Transformer의 작동 원리, AI가 ‘환각(Hallucination)’ 현상을 일으키는 구조적 이유, 그리고 세상을 바꾼 구글의 특허가 AI 개발 생태계에 미친 영향까지 깊이 있게 파헤쳐 봅니다.

 

ChatGPT 같은 AI와 대화하다 보면 정말 신기할 때가 많죠. 가끔은 거의 마법처럼 느껴지기도 하고요. 오늘은 이 마법 같은 AI 뒤에 숨겨진 진짜 원리를 함께 파헤쳐 보려고 합니다. 인공지능의 뇌라고 하는 ‘신경망’이 정보를 어떻게 처리하고 실수로부터 배우는지, 그리고 요즘 가장 뜨거운 주제인 ‘Transformer’와 ‘어텐션’이 문맥 파악의 핵심이라는데 대체 무엇인지, 이 복잡한 이야기들의 핵심만 쏙쏙 뽑아 나눠보겠습니다.

 

1. AI의 시작: 신경망은 어떻게 작동할까?

신경망은 본질적으로 숫자를 입력받아 다른 숫자를 출력하는 복잡한 계산 시스템, 즉 ‘함수’입니다. 손글씨 이미지를 보고 “이건 숫자 3이야”라고 맞추는 것처럼요. 가장 기본 단위는 ‘뉴런’이며, 이 뉴런들이 여러 ‘층(Layer)’으로 쌓여 있습니다. 입력층은 이미지 픽셀 값 같은 초기 데이터를 받고, 출력층은 0부터 9까지 각 숫자의 확률 같은 최종 결과를 내놓죠. 이 중간에 있는 ‘은닉층’이 바로 마법이 일어나는 공간입니다.

특히 이미지 인식을 위한 신경망인 합성곱 신경망(CNN)에서는 첫 은닉층이 선이나 곡선 같은 작은 특징을, 다음 층은 그걸 조합해 더 큰 형태를 인식하는 방식으로 작동합니다. 마치 레고 블록으로 작은 조각을 모아 큰 작품을 만드는 것과 유사합니다. 그러나 일반적인 신경망은 이미지의 공간적 구조를 고려하지 않으므로 이러한 계층적 특징 추출이 어렵습니다.

신경망의 확률적 예측: Softmax의 역할

신경망은 어떻게 최종 예측을 확률로 나타낼까요? 마지막 출력층에서 ‘소프트맥스(Softmax)’ 함수가 그 역할을 합니다. 손글씨 숫자 인식 예시에서 출력층의 10개 뉴런은 각자 ‘이 숫자가 0일 점수’, ‘1일 점수’ 등을 계산합니다. 소프트맥스는 이 점수들을 받아서 총합이 1이 되는 확률값으로 변환해 줍니다. 마치 여러 후보의 득표수를 전체 유권자 대비 득표율로 바꿔주는 비유와 같습니다. 예를 들어 ‘8’ 뉴런의 점수가 가장 높았다면, 소프트맥스를 거쳐 {7일 확률: 5%, 8일 확률: 90%, 9일 확률: 3%...} 와 같은 최종 확률을 내놓고, 모델은 가장 확률이 높은 ‘8’을 정답으로 예측하는 것이죠. 이 방식은 Transformer가 다음 단어를 예측할 때도 똑같이 사용됩니다.

 

2. AI는 어떻게 스스로 똑똑해질까? (학습의 비밀)

처음엔 무작위 값으로 시작하는 수많은 파라미터(가중치와 바이어스)를 어떻게 조절해서 정답을 맞추게 될까요? 핵심은 ‘최적화’입니다. 먼저 모델이 얼마나 틀렸는지를 나타내는 ‘비용 함수(Cost Function)’를 정의합니다. 학습의 목표는 이 비용을 최소화하는 파라미터 조합을 찾는 것이죠.

이때 사용되는 방법이 바로 ‘경사 하강법(Gradient Descent)’입니다. 짙은 안갯속에서 산의 가장 낮은 골짜기를 찾아 한 걸음씩 더듬더듬 내려가는 비유로 설명할 수 있습니다. 수많은 파라미터가 만드는 거대한 지형에서, 현재 위치에서 비용이 가장 가파르게 줄어드는 내리막길(기울기, Gradient)을 찾아 아주 조금씩 내려가는 과정을 반복하는 겁니다.

역전파: 똑똑하고 효율적인 계산법

'역전파(Backpropagation)'는 최종 출력에서 발생한 오차를 네트워크의 각 층으로 거슬러 올라가며, 각 파라미터가 오차에 얼마나 영향을 미쳤는지(기울기)를 계산하는 과정입니다. 이는 복잡한 수학적 연쇄 미분 법칙을 통해 매우 효율적으로 수행되며, 신경망 학습의 핵심 알고리즘입니다.

 

3. 단어를 숫자로 번역하는 마법: 임베딩 벡터

신경망은 숫자만 이해할 수 있습니다. 그렇다면 ‘고양이’나 ‘사랑’ 같은 단어는 어떻게 처리할까요? 바로 여기서 ‘임베딩 벡터(Embedding Vector)’라는 마법이 등장합니다. 임베딩은 각 단어를 수백 개의 숫자 배열(벡터)로 변환하는 기술입니다.

임베딩 벡터는 단어 간의 통계적 관계를 숫자로 표현해, 모델이 문맥에서 단어의 역할을 추론하는 데 도움을 줍니다. 예를 들어, Word2Vec 같은 고정 임베딩 모델에서는 '왕' 벡터에서 '남자' 벡터를 빼고 '여자' 벡터를 더하면 '여왕' 벡터와 유사한 결과가 나오기도 합니다. 하지만 현대 Transformer 모델은 문맥에 따라 단어의 의미가 변하는 '동적 임베딩'을 사용하므로, 이는 단순한 패턴 인식을 넘어섭니다. 그럼에도 이것이 진정한 의미 이해와는 다릅니다. '사랑'과 '행복'의 벡터가 가깝더라도, 모델이 왜 사랑이 행복을 가져오는지 논리적으로 설명할 수는 없는 것과 같습니다.

 

4. 언어 모델의 혁신, ‘Transformer’의 등장

이미지 분류를 넘어, AI는 어떻게 문맥 속 숨은 의미를 파악할까요? RNN이나 LSTM 같은 기존 모델들은 단어를 순서대로 처리했기 때문에 문장이 길어지면 앞부분의 정보를 잊어버리는 한계가 있었습니다. 2017년, 구글의 논문 ‘Attention Is All You Need’에서 발표된 ‘Transformer’는 이 문제를 해결하며 언어 모델의 새 시대를 열었습니다.

Transformer의 혁신은 두 가지입니다. 첫째, 단어를 순차적이 아닌 문장 전체를 한 번에 병렬로 처리하여 속도와 효율을 극대화했습니다. 둘째, 바로 그 유명한 ‘어텐션(Attention)’ 메커니즘을 도입하여 문맥 이해 능력을 혁신적으로 끌어올렸습니다.

 

5. Transformer의 심장, ‘어텐션’ 메커니즘 파헤치기

어텐션의 핵심 아이디어는 간단합니다. “어떤 단어의 진짜 의미를 알려면, 문장 안의 다른 모든 단어와의 관계를 살펴봐야 한다”는 것이죠. 각 단어는 다른 모든 단어에게 “나랑 얼마나 관련 있어?”라고 묻고, 관련성이 높은 단어의 정보에 더 ‘주의(Attention)’를 기울여 자신의 의미를 업데이트합니다.

임베딩 벡터에서 Q, K, V가 생성되는 과정 (비유 포함)

어텐션의 핵심 요소인 쿼리(Q), 키(K), 밸류(V) 벡터는 각 단어의 ‘임베딩 벡터’라는 원재료로부터 만들어집니다. 단어의 고유한 의미 좌표인 임베딩 벡터에, 학습을 통해 얻어진 세 종류의 변환 행렬(Wq, Wk, Wv)을 각각 곱하여 세 가지 역할 벡터를 생성합니다. 하나의 재료(임베딩)를 가지고 각각 다른 레시피(변환 행렬)를 적용해 세 가지 다른 요리(Q, K, V)를 만드는 비유와 같습니다.

연구원(현재 단어)은 자신의 연구 주제(Q)를 모든 책의 제목(K)과 비교해 관련성 점수를 매깁니다. 그리고 점수가 높은 책의 내용(V)을 더 많이 참고하여 자신의 보고서를 풍부하게 만드는 것이죠. 수학적으로는 각 책의 내용(V) 벡터에 해당 관련성 점수(어텐션 가중치)를 곱한 뒤, 이 모든 벡터들을 더하여 최종 결과 벡터를 계산합니다. 관련성 높은 단어들의 목소리는 커지고, 낮은 단어들의 목소리는 작아지는 효과입니다.

여러 관점으로 세상을 보는 ‘멀티-헤드 어텐션’

‘멀티-헤드 어텐션’은 이 어텐션 과정을 여러 세트로 동시에 진행하는 방식입니다. 각 ‘헤드’는 저마다 고유한 변환 행렬(Wq, Wk, Wv 세트)을 가집니다. 즉, 똑같은 임베딩 벡터를 입력받아도 헤드마다 각기 다른 Q, K, V를 만들어냅니다. 이를 통해 어떤 헤드는 문법적 관계를, 다른 헤드는 의미적 관계를 보는 등 서로 다른 관점에서 단어 관계를 파악할 수 있습니다. 여러 분야의 전문가들이 각자 다른 관점으로 분석한 결과를 종합해 최종 보고서를 내는 비유와 같습니다.

 

6. 현대 LLM의 탄생 과정: 3단계 학습법

그렇다면 이 Transformer 아키텍처를 기반으로 한 현대 LLM은 구체적으로 어떻게 만들어질까요? 일반적으로 크게 3단계의 과정을 거칩니다.

  1. 1단계: 사전학습 (Pre-training)
    인터넷에 존재하는 거의 모든 텍스트 데이터를 학습하여 언어의 일반적인 패턴을 배우는 단계입니다. 이 과정은 GPU 수천 개로 수개월이 걸리는 엄청난 작업입니다. 비유하자면, 세상의 모든 책을 읽고 언어의 구조, 문법, 세상의 지식 등 기초 소양을 쌓는 과정과 같습니다.
  2. 2단계: 미세조정 (Fine-tuning)
    사전학습된 모델을 번역이나 요약 같은 특정 과업에 관련된 데이터로 다시 학습시켜 해당 분야에 특화시키는 과정입니다. 기초 소양을 쌓은 학생이 법률이나 의료 같은 전문 분야를 깊게 파고들어 전문가가 되는 과정에 비유할 수 있습니다.
  3. 3단계: 인간 피드백 기반 강화학습 (RLHF)
    일부 모델은 이 단계를 추가하여 인간의 선호도에 맞는 답변을 생성하도록 최적화합니다. 인간의 피드백을 통해 모델이 사회적 기준에 맞는 답변을 생성하도록 가르치지만, 피드백 데이터의 편향성이나 윤리적 해석의 차이는 여전히 문제로 남습니다.

 

7. 기술 혁신과 특허: 구글 특허가 바꾼 AI 개발의 판도

2017년에 발표된 ‘Attention Is All You Need’는 역대 AI 관련 논문 중 최다 인용 횟수를 기록한 전설적인 논문입니다. 이 논문 하나로 2018년 이후 자연어 처리 분야는 RNN에서 Transformer 중심으로 완전한 기술 세대교체를 겪게 됩니다. 이 거대한 혁신 뒤에는 구글의 핵심 특허(US 10459278B2)가 자리하고 있습니다.

강력한 특허 권리 범위의 비밀

구글의 Transformer 관련 특허는 특정 구현 방식을 보호하지만, '어텐션' 개념 자체는 공개된 논문을 통해 연구 커뮤니티에 개방되었습니다. 그럼에도 이 특허가 강력한 이유는 다음과 같습니다.

  • 구체적인 기술 구현을 포함한 광범위한 권리 범위: 어텐션 메커니즘을 활용한 특정 신경망 구조와 계산 방법을 구체적으로 기술하여, 유사한 구현을 방지할 수 있습니다.
  • 무효화의 어려움: 기존 기술들을 단순히 조합한 것이 아닌, 기술적 패러다임을 바꾼 혁신이기에 선행기술 조합으로 무효화하기가 곤란합니다.
  • 계층적 방어 구조: 설령 가장 넓은 범위의 독립항이 무효가 되더라도, QKV 구조, 위치 인코딩, 멀티-헤드 등 각 세부 메커니즘을 종속항으로 확보하여 계층적으로 권리를 방어할 수 있습니다.

원본 Transformer와 후속 모델(GPT, BERT)의 결정적 차이

ChatGPT와 같은 후속 모델들은 Transformer의 철학을 계승했지만, 원본 논문의 구조를 그대로 사용하지는 않습니다. 목적에 따라 필요한 부분만 선택하고 발전시켰죠.

  • GPT 계열 (ChatGPT 등): 디코더(Decoder)만 사용 ✍️
    GPT는 글을 생성하는 '창의적인 작가'에 가깝습니다. 원본 Transformer의 '디코더' 부분만 떼어내 발전시켰죠. 주어진 단어들을 보고 다음 단어를 예측하는 과업에 특화되어 있습니다. 이전 단어들만 볼 수 있는 'Causal Attention' 구조를 사용하여, 마치 사람이 글을 쓰듯 순차적으로 가장 자연스러운 문장을 만들어냅니다.
  • BERT 계열: 인코더(Encoder)만 사용 📚
    BERT는 문장의 의미를 깊게 이해하는 '똑똑한 연구원'에 가깝습니다. 원본의 '인코더' 부분에 집중했죠. 문장의 빈칸을 뚫어놓고 앞뒤 문맥을 모두 참고하여 빈칸의 단어를 맞추는 방식으로 학습합니다. 이 '양방향(Bi-directional)' 특성 덕분에 문장 전체의 숨은 의미를 파악하는 데 탁월하며, 검색이나 감성 분석 등에 주로 사용됩니다.

 

8. 한계와 현실: AI는 왜 거짓말을 할까?

Transformer가 아무리 정교해도, 근본적으로는 방대한 데이터 속 통계적 패턴을 학습하는 것이지 인간처럼 진짜 의미를 ‘이해’하고 ‘추론’하는 것은 아닙니다. 이 구조적 특징 때문에 AI의 고질적인 문제인 ‘환각(Hallucination)’ 현상이 발생할 수밖에 없습니다.

AI가 그럴듯한 거짓말을 하는 이유: ‘환각(Hallucination)’

환각은 모델이 학습 데이터의 통계적 패턴에 의존해 문맥에 적합한 단어를 예측하는 과정에서 발생합니다. 예를 들어, 학습 데이터에서 '세종대왕'과 '맥북 프로'라는 서로 관련 없는 단어가 우연히 가까이 등장했다면, 모델은 이 둘을 조합해 "세종대왕이 맥북 프로를 사용했다"는 허구의 사실을 생성할 수 있습니다. AI 내부에는 사실 여부를 검증하는 ‘팩트 체커’가 내장되어 있지 않기 때문입니다. 다만, 최신 모델들은 외부 지식 검색 도구와 결합되거나 검증 단계를 추가해 환각을 줄이려는 연구가 활발히 진행되고 있습니다.

마무리하며

오늘 우리는 AI의 기본 뉴런에서 시작해 최신 언어 모델의 심장인 Transformer와 어텐션까지, 그 핵심 원리를 따라가 보았습니다. AI는 마법이 아니라, 방대한 데이터 속에서 수학적 원리를 이용해 패턴을 찾고 오차를 줄여나가도록 정교하게 설계된 시스템이라는 것을 확인할 수 있었죠.

한 가지 질문을 던지며 마무리할까 합니다. 현재 모델들은 통계적 연관성에 크게 의존합니다. 미래의 AI는 과연 이 ‘의미 이해’의 간극을 어떻게 메울 수 있을까요? 어쩌면 어텐션을 넘어서는 새로운 아키텍처가 우리를 또 다른 놀라운 세계로 이끌지도 모릅니다. 여러분의 생각은 어떠신가요?

 

자주 묻는 질문

Q: ChatGPT는 구글의 Transformer와 어떻게 다른가요?
A: 원본 Transformer는 번역을 위해 문장을 이해하는 '인코더'와 문장을 생성하는 '디코더'를 모두 사용했습니다. 반면 ChatGPT 같은 GPT 계열 모델은 문장 생성에 특화된 '디코더' 아키텍처만 사용하고, BERT 같은 분석 모델은 문장 이해에 특화된 '인코더' 아키텍처만 사용합니다.
Q: ‘단어 임베딩’이란 무엇이고 왜 중요한가요?
A: 단어를 컴퓨터가 이해할 수 있는 숫자 배열(벡터)로 변환하는 기술입니다. 단어의 의미를 벡터 공간의 좌표로 표현하여, 의미가 비슷한 단어는 가깝게 위치하도록 만듭니다. 이는 AI가 언어의 의미적 관계를 파악하는 출발점이기 때문에 매우 중요합니다.
Q: 왜 구글의 Transformer 특허는 강력하다고 평가받나요?
A: 특정 구현 방식이 아닌 '어텐션'이라는 개념 자체를 넓게 보호하고, 여러 세부 기술을 종속항으로 두어 방어하기 때문입니다. 이로 인해 특허를 회피하기가 매우 어렵고, AI 개발 생태계에 큰 영향을 미칩니다.
Q: AI가 거짓말을 하는 ‘환각 현상’은 왜 일어나나요?
A: AI는 사실을 말하는 것이 아니라, 다음 단어를 확률적으로 예측(샘플링)하기 때문입니다. 학습 데이터의 통계적 패턴에 따라 사실이 아닌 단어가 높은 확률을 가지면, AI는 그 단어를 선택하여 그럴듯한 거짓말을 만들어낼 수 있습니다.

‘장롱특허’ 막는 산학협력 정책, 핵심은 ‘계약서 포트폴리오 관리’에 있다

 

정부 R&D 계약서의 ‘숨은 조항’, 국가 혁신에 어떤 영향을 미칠까? 이 글에서는 정부 지원 산학협력의 성공을 좌우하는 계약서의 비밀을 파헤치고, 정책 입안자와 실무자를 위한 구체적인 정책 연계 방안을 제시합니다.

 

안녕하세요! 정부 지원 산학협력 정책을 담당하시거나 관련 프로젝트를 수행하시면서 ‘과연 이 R&D의 결과물은 누구를 위한 것일까?’ 하는 고민, 한 번쯤 해보셨을 겁니다.

최근 아주 의미 있는 해외 논문을 읽고 그 인사이트를 공유하고 싶어 이렇게 글을 씁니다. 일부는 이미 우리나라에 도입된 정책도 있지만, 여전히 검토할 만한 새로운 시사점이 많더라고요. 이번 글을 통해 정책 입안자와 실무자분들이 산학협력에 대한 깊이 있는 통찰을 얻고, 실질적인 정책 아이디어를 얻어 가시길 바랍니다.

 

정부 지원 산학협력, 그 결과는 누구의 것일까?

정부가 대학과 기업의 공동 R&D에 막대한 자금을 지원하는 이유는 단 하나, 바로 ‘기술 혁신을 통한 국가 경제 성장’입니다. 하지만 이 과정에 참여하는 주체들은 저마다 다른 속마음을 가지고 있죠.

  • 정부: 세금을 투입했으니 연구 결과가 널리 퍼져 사회 전반에 이익이 되길 원해요. (오픈 사이언스)
  • 기업: 연구 결과를 독점해서 시장 경쟁력을 높이고 싶어 하죠.
  • 대학: 지식 창출과 확산이라는 전통적인 목표와 기술이전 수입이라는 상업적 목표 사이에서 균형을 찾아야 하고요.

이처럼 서로 다른 이해관계가 부딪히는 상황에서, 과연 계약서는 어떻게 쓰이고 있을까요? 최근 노르웨이 연구위원회(RCN)가 지원한 484개 산학협력 프로젝트의 실제 계약서를 분석한 연구는 이 질문에 대한 흥미로운 답을 제시합니다.

연구 하이라이트!
산학협력의 IP 및 정보공개 방식은 단순히 ‘공개’와 ‘비공개’로 나뉘지 않았습니다. 대신, 세 가지 뚜렷한 유형의 거버넌스 모델이 발견되었죠.

 

산학협력의 세 가지 거버넌스 모델

  1. 독점적 파트너십 (“이건 우리 회사 것” 모델): 연구 결과물의 소유권과 사용권을 모두 기업이 가져가고, 발표나 정보 공개를 강력히 제한하는 방식입니다. 정부 지원금 비중이 평균 53%로 가장 낮았습니다.
  2. 오픈 사이언스 협력 (“모두의 지식” 모델): 연구 결과는 널리 발표되어야 하고, 기밀 유지 의무도 거의 없습니다. 대학이 주도권을 갖는 경향이 있으며, 정부 지원금 비중은 평균 64%로 높았습니다.
  3. 통제된 접근 계약 (“소유는 대학이, 사용은 기업이” 모델): 가장 흔하게 발견된 모델입니다. IP 소유권은 대학이 갖지만, 상업적 활용 권한(실시권)은 기업 파트너에게 독점적으로 부여합니다. 동시에 연구 결과 발표나 비밀 유지는 엄격하게 통제됩니다. 정부 지원금 비중은 ‘오픈 사이언스’ 모델만큼 높았습니다(평균 64%).

이 연구의 가장 중요한 발견은, 정부 지원금 비중이 높을수록 기업이 IP 소유권을 가져갈 확률은 낮아졌지만, 연구 결과의 발표를 제한하는 조항과는 유의미한 관계가 없었다는 점입니다. 즉, 정부가 돈을 많이 내서 대학이 IP를 소유하게는 만들었지만, 그 지식이 사회로 확산되는 데는 큰 영향을 미치지 못했다는 뜻이죠.

 

정책 입안자를 위한 인사이트 및 제언

이러한 연구 결과는 국가, 대학, 산업체의 입장을 명확히 보여주며, 효과적인 후속 정책을 설계할 중요한 단서를 제공합니다.

이해관계자별 입장 요약

국가: ‘오픈 사이언스’를 통한 지식 확산이라는 정책 목표가 ‘통제된 접근 계약’이라는 현실 앞에서 절반의 성공에 그치고 있습니다. 대학에 IP 소유권을 주는 데는 성공했지만, 특정 기업에 기술이 묶여 확산되지 못하는 ‘지식 독점’ 가능성을 간과했을 수 있습니다.

산업체: 정부 지원을 받으면서도 실질적 이익을 확보하는 데 능숙합니다. IP 소유권을 대학에 양보하는 대신, 독점적 사용권과 강력한 비밀유지 조항으로 기술을 사실상 독점하는 영리한 전략을 취하고 있습니다.

대학: 학문적 성과와 상업적 이익 사이에서 ‘통제된 접근 계약’이라는 균형점을 찾았습니다. IP 소유권으로 장기적 권리를 지키고, 기업에 독점 실시권을 부여해 단기 수입과 협력 관계를 유지하는 것입니다.

후속 정책 연계 방안 제안

  1. ‘계약서 사전 분석’을 통한 R&D 포트폴리오 관리: 정부 R&D 과제 선정 시, 기술 타당성뿐 아니라 참여 주체인 기업과 대학 간의 ‘IP 및 성과 확산 계획(계약 조항)’을 핵심 평가 지표로 포함시켜야 합니다. 이를 통해 정부는 지원 과제를 정책 목표에 따라 균형 있게 구성하는 ‘포트폴리오 관리’가 가능해집니다.
  2. ‘대학 소유 IP’ 후속 기술사업화 활성화: 대학이 소유한 R&D 결과물이 ‘장롱특허’가 되지 않도록 후속 지원을 강화해야 합니다. 예를 들어, 참여 기업이 기술을 장기간 사업화하지 않을 경우 제3자에게 비독점 실시권을 부여하는 ‘실시권 조정(march-in rights)’ 조항을 표준계약서에 포함시키거나, 대학 TLO의 후속 사업화 활동에 정부 자금을 연계 지원하는 프로그램을 마련할 수 있습니다.
  3. 정부 지원 규모와 ‘성과 공개/확산 조항’ 연계 강화: 정부 지원 비중에 따라 성과 확산 의무를 차등적으로 부과하는 정책을 도입할 수 있습니다. 예를 들어, 정부 지원 비중이 75% 이상인 과제는 ‘비독점적 실시’를 원칙으로 하거나, 연구 종료 후 일정 기간이 지나면 핵심 결과를 의무적으로 공개하도록 계약서에 명시하는 방안입니다.
  4. 신뢰 기반의 ‘유연한 계약’ 모델 개발 및 보급: 초기 계약이 협력의 걸림돌이 되지 않도록 ‘단계적/유연한 계약(flexible contracting)’ 모델을 개발하고 보급해야 합니다. 예를 들어, 프로젝트 중간 단계에서 상호 협의 하에 공개 조항을 재검토할 수 있다는 내용을 표준계약서에 포함시켜, 보다 개방적인 협력으로 나아갈 공식적인 경로를 열어주는 것입니다.

산학협력 정책 핵심 요약

계약 모델의 현실: 대부분의 산학협력은 ‘통제된 접근’ 모델로, IP는 대학 소유지만 기업이 독점 사용하며 공개는 제한됩니다.
정책의 한계: 정부 지원금이 대학의 IP 소유권 확보에는 도움을 주지만, 기술의 사회적 확산으로 직결되지는 않습니다.
핵심 제언:
단순 자금 지원을 넘어, 계약서의 ‘숨은 조항’을 분석하여 R&D 포트폴리오를 관리하고 성과 확산을 유도해야 합니다.
미래 방향: 유연한 계약 모델을 보급하고, 대학 소유 IP의 후속 사업화를 적극 지원하는 정책 연계가 필요합니다.

자주 묻는 질문

Q: 연구에서 가장 흔하게 발견된 산학협력 모델은 무엇인가요?
A: ‘통제된 접근 계약’ 모델이 가장 흔했습니다. 이 모델은 IP 소유권은 대학이 갖되, 상업적 활용 권한은 참여 기업이 독점적으로 가지며 연구 결과의 비밀 유지가 강조되는 형태입니다.
Q: 정부가 기업과 대학 간 계약서의 ‘숨은 조항’까지 신경 써야 하는 이유는 무엇인가요?
A: 바로 그 계약서의 세부 조항이 연구 결과물의 소유권, 사용권, 공개 여부를 결정하기 때문입니다. 정부가 단순히 자금만 지원하고 계약 내용에 관여하지 않으면, 세금으로 개발된 기술이 특정 기업에 독점되어 사회 전체의 이익으로 이어지지 못할 수 있습니다.
Q: 이 연구는 노르웨이 사례인데, 한국 상황에도 적용할 수 있을까요?
A: 네, 적용 가능성이 매우 높습니다. 정부 주도로 산학협력 R&D가 활발히 이루어지고, IP 소유권과 성과 확산에 대한 고민이 깊다는 점에서 한국과 노르웨이는 유사한 정책적 환경을 공유합니다. 따라서 이 연구의 발견과 정책 제언은 한국의 산학협력 정책을 개선하는 데 중요한 참고자료가 될 수 있습니다.

마무리하며

결론적으로, 이 연구는 정부가 산학협력에 자금을 지원하는 것을 넘어, 결과물이 어떻게 관리되고 확산되는지에 대한 ‘거버넌스 설계’에 적극적으로 개입해야 함을 시사합니다. 계약서의 ‘미세한 조항(fine print)’에 대한 이해를 바탕으로 정교한 정책을 연계할 때, 비로소 국민의 세금으로 만들어진 R&D 성과가 국가 전체의 혁신 역량으로 이어질 수 있을 것입니다.

산학협력 정책과 관련하여 여러분의 소중한 의견이나 경험이 있다면 댓글로 공유해주세요! 더 풍부한 논의로 이어질 수 있기를 기대합니다.

참고 문헌

Haakon Thue Lie et al., The fine print of collaboration: How contractual provisions govern IP and disclosure in publicly funded research, 54 Research Policy 105336 (2025).

 

Sunday, September 28, 2025

특허 심사기준, 이제는 바뀌어야 할 때: ‘일응 추정’ 원칙 도입

 

특허청의 모호한 거절이유, 더는 안 됩니다! 특허 심사관이 거절 이유를 명확히 입증해야 하는 ‘일응 추정’ 원칙을 아시나요? 미국과 한국의 심사기준을 비교하며, 더 공정하고 강한 특허를 만들기 위한 핵심 개선안을 제안합니다.

 

특허 출원을 하고 심사관의 첫 번째 의견제출통지서, 즉 ‘거절이유통지서’를 받아보신 분이라면 한 번쯤 답답함을 느껴보셨을 겁니다. 인용된 선행기술 몇 개만 나열된 채, “통상의 기술자라면 쉽게 발명할 수 있다”는 한두 줄의 설명만으로 거절이유를 통지받는 경우가 많기 때문이죠. 대체 어느 부분을 어떻게 반박해야 할지 막막했던 경험, 다들 있으실 겁니다. 😅

이런 문제는 심사관 개인이 불친절하다거난 불성실하기 때문에 발생하는 것이 아닙니다. 바로 심사관에게 ‘입증 책임’을 명확히 부여하는 절차적 장치가 우리 심사기준에 빠져있기 때문인데요. 오늘은 미국 특허청(USPTO)의 ‘일응 추정(Prima Facie Case)’ 원칙을 통해 한국 특허 심사 제도의 문제점을 짚어보고, 어떻게 하면 더 공정하고 효율적인 시스템을 만들 수 있을지 이야기해 보겠습니다.

 

‘일응 추정’ 원칙, 정확히 무엇일까요? 🤔

‘일응 추정(Prima Facie Case)’은 심사관이 특허 출원 발명이 ‘진보성이 없다’는 등의 이유로 거절하려 할 때, 먼저 ‘명백히 진보성이 없다는 등의 등록 거절이유의 근거’을 제시할 책임이 있다는 의미입니다.

그러나 이는 형사재판처럼 ‘유죄를 입증해야 한다’는 강력한 의무가 아니라, “일응 명백하다고 추정될 수 있는 최소한의 근거를 제시하라”행정 절차상의 기준이자 증거 법칙입니다. 예를 들어, 즉, 심사관이 진보성 부재를 주장할 때, 판례나 MPEP(심사기준)에 근거한 간접사실을 통해 ‘명백히 진보성이 없음’을 추정할 수 있는 최소한의 논리적 근거를 제시해야 한다는 것입니다. 이러한 추정이 확립되면, 출원인은 그 추정을 반박할 책임(rebuttal burden)을 지게 됩니다.

 

✅ 심층 분석: 미국 USPTO의 ‘일응 추정’ 원칙의 실제 구조

1. 법적 근거: MPEP와 판례

미국의 ‘일응 추정’ 원칙은 심사관의 자의적 판단을 막기 위해 명확한 규정과 판례에 기반합니다.

  • MPEP § 2142 (미국 특허심사기준): 심사관은 “통상의 기술자라면 청구된 발명이 자명했을 것”이라는 점을 보여줌으로써 ‘일응 추정’을 확립한다고 규정합니다. 즉, 결론에 도달하기까지의 최소한의 논리적 근거 제시를 의무화합니다.
  • MPEP § 2143 및 KSR 판례: 심사관이 진보성을 부정하기 위해 사용할 수 있는 7가지 논리적 근거 유형을 제시합니다. 이는 심사관이 실험 데이터와 같은 ‘직접 사실’이 아닌, ‘간접 사실’을 활용하는 것에 관한 것입니다. 예를 들어, “문헌 A와 B는 같은 분야이며 C 목적을 위해 결합 가능하다”와 같은 특정 판단이 일응 추정되는 판례상의 ‘간접 사실’들을 심사관이 구체적으로 제시해야 한다는 의미입니다. 이처럼 간접 사실을 활용하여 추정을 확립하도록 하는 것은 행정 효율성을 높이기 위함입니다.

2. 입증 책임의 전환: 출원인에게 넘어가는 반박 책임

심사관이 MPEP 규정에 따라 ‘일응 추정’을 성립되는 사실적 근거를 제시하면, 이제 공은 출원인에게 넘어갑니다. MPEP § 2145는 이 경우 출원인이 그 추정을 반박할 책임(burden to rebut)을 진다고 명시합니다. 이는 설득 책임입니다. 출원인은 비교실험 데이터, 전문가 의견서, 상업적 성공 등 구체적인 증거를 통해 심사관의 논리를 무너뜨려야 합니다.

💡 핵심 구조 요약
1단계 (심사관): 판례 등 ‘간접 사실’에 근거해 최소한의 논리적 근거를 제시하여 ‘진보성 없음’을 일응 추정.
2단계 (출원인): 확립된 추정을 구체적 증거(직접 사실 등)로 반박할 책임을 부담.

한국 특허 심사, 왜 ‘일응 추정’이 필요한가?

현재 한국 특허 심사기준에는 ‘일응 추정’ 개념이 명문화되어 있지 않습니다. 이로 인해 심사관이 “통상의 기술자라면 쉽게 발명할 수 있다”는 선언적 주장만으로 거절이유를 통지하는 경우가 많아, 출원인은 ‘숨은 논리’까지 추측해 방어해야 하는 비효율이 발생합니다.

물론 유럽(EPO)의 ‘문제-해결 접근법’이나 일본(JPO)의 ‘논리적 근거 제시’ 요구와 같은 심사 투명성을 높이기 위한 장치를 마련하고 있지만, 미국(USPTO)의 ‘일응 추정’ 원칙처럼 사실 증거에 기반한 명확한 책임 전환 구조를 갖추고 있지는 않습니다.

⚠️ 문제의 핵심: 객관성 없는 심사
한국 심사관이 선행기술 결합의 ‘동기’를 언급하더라도, 구체적인 사실 증거보다는 추상적인 가능성에 그치는 경우가 많습니다. 이는 출원인의 방어권을 약화시키고 ‘약한 특허’를 양산하여 결국 특허 시스템 전체의 신뢰도를 저해합니다. 이 때문에 엄격하고 장시간의 심사를 거쳐 등록되었더라도 등록 이후 이해당사자의 공격에 취약해집니다.

해결책: 특허 심사기준, 이렇게 바꿔야 합니다! 🚀

따라서 미국식 ‘일응 추정’ 원칙의 도입은 한국 특허 심사 품질을 획기적으로 개선할 수 있는 매우 타당한 해결책입니다. 이를 통해 심사관의 주관적 판단을 객관화하고, 출원인의 방어권을 실질적으로 보장하며, 심사 품질과 특허 권리의 안정성을 동시에 향상시킬 수 있습니다.

정책 제안 3단계

  1. ‘일응 추정’ 원칙의 명문화 및 구체화: 심사기준 총칙에 ‘심사관은 거절이유 통지 시, MPEP § 2143과 같이 구체적인 간접 사실에 기반한 논리적 근거를 제시해야 한다’는 원칙을 명시해야 합니다. 더 나아가, 등록 거절 판단으로 이어지는 일응 추정의 간접 사실들을 국내외 판례 연구를 통해 구체적으로 열거해야 합니다. 이러한 근거들이 심사관에 의해 명백히 제시될 때, 거절이라는 행정처분의 정당성이 확보되고 심사관도 자신이 내린 행정처분에 안도할 것입니다.
  2. 입증 책임 전환 구조 도입: 심사관이 ‘일응 추정’을 확립한 경우, 출원인에게 반증 책임이 전환됨을 명확히 규정해야 합니다.
  3. 출원인의 반증 방법 안내: 출원인이 반증 책임을 효과적으로 이행할 수 있도록, 비교실험 데이터나 전문가 의견서 제출 등 구체적인 반증 방법을 심사기준에 예시로 제공해야 합니다.
‘일응 추정’ 법리심사관의 주관적인 판단을 객관화하는 매우 효과적인 도구입니다. 심사기준이 이 원칙을 반영하면, 심사관은 더 이상 ‘논리적 근거 없이 그냥 용이하다’거나 ‘결합의 동기가 있다’고 결론 내릴 수 없습니다. 대신, 그 판단을 뒷받침하는 최소한의 사실, 즉 판례 등을 통해 ‘일응 추정’으로 인정된 사실을 먼저 제시해야 합니다. 일종의 증거법칙입니다. 이는 심사 과정 전체의 객관성과 신뢰성을 높이는 핵심적인 역할을 합니다.

 

💡한눈에 보는 핵심 요약

현 문제점: 심사관의 입증 책임이 불명확하여 출원인에게 과도한 방어 부담을 지우고, 행정 비효율과 ‘약한 특허’를 양산합니다.
글로벌 스탠더드: 미국 USPTO는 ‘일응 추정’ 원칙을 통해 심사관이 ‘간접 사실’로 최소한의 논거를 제시하면, 출원인에게 반박 책임이 넘어가는 효율적 구조를 갖추고 있습니다.
핵심 해결책:
한국 심사기준에 ‘일응 추정’과 ‘입증 책임 전환(또는 증거 제출책임과 설득책임의 분배)’ 원칙을 명문화하여 심사의 객관성을 확보해야 합니다.
기대 효과: 출원인의 방어권이 강화되고, 심사 품질이 향상되어 결국 국가 경쟁력 있는 ‘강한 특허’ 창출로 이어집니다.

자주 묻는 질문 ❓

Q: ‘일응 추정’ 원칙은 심사관의 부담을 줄여주는 것 아닌가요?
A: 아닙니다. 오히려 심사관에게 명확한 논리적 근거를 제시해야 할 초기 책임을 부여합니다. 다만, 모든 것을 직접 증명해야 하는 과도한 부담 대신, 판례 등 객관적 기준(간접 사실)에 따라 논증하도록 하여 효율성을 높인 것입니다. 이는 심사관의 자의적 판단을 방지하는 중요한 역할을 합니다.
Q: 출원인에게 ‘반박 책임’이 넘어오면 더 불리한 것 아닌가요?
A: 그렇지 않습니다. 현재처럼 무엇을 방어해야 할지 모르는 ‘깜깜이 심사’보다, 심사관의 논리가 명확하게 제시되므로 방어할 쟁점이 뚜렷해집니다. 이는 출원인에게 예측 가능성을 제공하고 방어권을 실질적으로 보장하는 효과가 훨씬 큽니다.
Q: 이미 법원에서 심사관의 입증 책임을 인정하는데, 심사기준 개정이 꼭 필요한가요?
A: 네, 반드시 필요합니다. 심사 단계에서부터 명확한 기준이 적용되어야 불필요한 심판과 소송을 줄일 수 있습니다. 현재는 심사기준과 법원의 판단이 달라 혼란과 비효율을 낳고 있습니다. 심사기준을 개정하는 것은 이러한 ‘사법-행정 불일치’를 해소하고 행정의 일관성을 높이는 길입니다.

특허 심사 절차의 투명성과 공정성은 국가 혁신 시스템의 근간입니다. 심사관의 입증 책임을 명확히 하는 ‘일응 추정’ 원칙의 도입은 더 이상 미룰 수 없는 과제입니다. 여러분의 생각은 어떠신가요? 댓글로 자유로운 의견을 남겨주세요!

Saturday, September 27, 2025

The Ultimate Guide to Semiconductor Patent Analysis Using LLMs for In-House Counsel

An abstract image of a semiconductor chip with glowing circuits, representing technology and analysis.

 

Blogging_CS (Expert Contribution) · · Approx. 15 min read

Beyond speculation to scientific evidence: Unlocking a new paradigm in patent infringement analysis with AI.

Semiconductor patent litigation must be fought with evidence, not intuition. Reverse engineering (RE) a complex semiconductor chip is a costly and time-consuming process. But what if you could revolutionize it using Large Language Models (LLMs)? This guide presents a step-by-step analysis methodology and LLM prompt strategies that in-house patent teams can use to build a robust evidentiary framework for the courtroom.

 

Introduction: The Strategic Importance of Reverse Engineering in Patent Litigation

Patent litigation is a legally demanding process that consumes significant time and resources. Before filing a lawsuit, a plaintiff is obligated to present a ‘reasonable basis’ for believing their patent is being infringed upon by a defendant's product. At this stage, reverse engineering becomes the most powerful tool for demonstrating a concrete possibility of infringement based on scientific analysis, rather than mere speculation. This is especially true before the discovery phase, where direct evidence from the defendant's confidential materials is not yet available; one must often rely solely on RE.

The initial findings from RE are crucial for establishing the validity of a lawsuit, formulating a litigation strategy, and even encouraging an early settlement. A lawsuit initiated without solid RE faces a high risk of dismissal due to insufficient evidence, which can lead to substantial financial losses.

⚠️ Legal Disclaimer
This document is for informational and educational purposes only. The content herein does not constitute legal advice, and you must consult with an independent legal professional before taking any legal action.

Overview of the Complete Reverse Engineering Workflow

Semiconductor reverse engineering is not random disassembly; it is a highly controlled and systematic forensic investigation. The process generally follows a ‘funnel’ workflow, where the precision, cost, and level of destructiveness gradually increase. Each step is organically linked, using information from the previous stage to define the objectives and methods for the next.

  • Non-destructive Analysis: The initial reconnaissance phase to understand the internal structure of the chip in its packaged state without causing damage.
  • Sample Preparation: The process of exposing the target die and precisely sectioning a specific area for analysis.
  • Structural & Compositional Analysis: The core phase of observing micro-structures with microscopes and analyzing the materials of each component.
  • Specialized Analysis: Analyzing properties not visible with standard microscopy, such as doping concentrations or crystal structures.

The ultimate goal of this entire process is to complete a Claim Chart, a document that provides a clear, one-to-one comparison between the patent claims and the analytical results. The claim chart is the final deliverable that translates all scientific evidence gathered during RE into a legal argument.

Step 1: Strategic Analysis Planning and LLM Utilization

Before beginning the analysis, it is essential to review legal risks and design the most efficient analysis roadmap tailored to the patent claims. An LLM can serve as an excellent strategist in this process.

🤖 LLM Prompt Example: Legal Risk Assessment


# Role: Intellectual Property Legal Expert
# Task: Assess legal risks of semiconductor RE analysis

Please assess the legal risks for the following analysis plan and propose necessary preliminary measures:
- Target of Analysis: [Competitor's Semiconductor Product Name]
- Proposed Analysis Methods: Decapsulation, FIB-SEM, TEM, SIMS
- Jurisdiction: South Korea, USA, Japan

# Output Format:
{
  "legal_risks": ["List of risk factors"],
  "required_actions": ["Mandatory preliminary steps"],
  "documentation": ["List of necessary documents"],
  "approval_timeline": "Estimated approval timeframe"
}
        

🤖 LLM Prompt Example: Creating an Analysis Roadmap


# Role: Semiconductor Analysis Strategist
# Task: Create an efficient RE analysis roadmap

# Patent Claim:
[Insert the full text of the patent claim to be analyzed here]

# Competitor Product Information:
- Product Name: [Product Name]
- Publicly Available Technical Specs: [Specifications]
- Estimated Manufacturing Process: [Process Node]

# Requirements:
1. Set analysis priorities for each limitation of the claim.
2. Propose a cost-effective analysis sequence (from non-destructive to destructive).
3. Evaluate the probability of securing evidence at each stage.
4. Develop a risk-mitigation plan for the analysis.

# Output: A detailed analysis roadmap in JSON format.
        

Step 2: Non-Destructive Analysis - Chip Reconnaissance

This initial stage is crucial for understanding the overall architecture of the device, identifying potential manufacturing defects, and strategically planning the subsequent destructive analysis phases. The information gathered here forms the basis for managing risks and maximizing efficiency throughout the entire project.

2.1 SAM (Scanning Acoustic Microscopy) Analysis

  • Purpose: To verify the physical integrity of the product and detect internal defects (e.g., gaps between the chip and its package) to ensure the reliability of subsequent analyses.
  • Principle: Uses ultrasound waves that are directed at a sample. The acoustic waves reflected from internal interfaces or defects are detected to create an image of the internal structure. The C-Scan mode, which provides a planar image at a specific depth, is commonly used.
  • Results Interpretation: Dark or irregular patterns in the image indicate internal defects like voids or delamination. This information serves as a critical warning for areas to be cautious of during subsequent processes like decapsulation.

🤖 LLM Prompt Example: SAM Image Analysis


# Role: SAM Image Analysis Expert
# Input: [Upload SAM C-Scan Image]

# Task:
1. Classify the defect patterns visible in the image and mark their locations.
2. Determine whether each defect is likely a manufacturing issue or damage from the analysis process.
3. Suggest areas to avoid during the subsequent FIB analysis.
4. Evaluate the impact of the defect density on product quality.

# Output Format:
{
  "defect_classification": {...},
  "analysis_safe_zones": [],
  "quality_assessment": "..."
}
        

2.2 3D X-ray CT (Computed Tomography) Analysis

  • Purpose: To understand the 3D architecture of the chip package (e.g., die stacking, TSV arrays) and to set precise coordinates for subsequent high-precision analysis.
  • Principle: A 3D volumetric dataset is generated by computationally reconstructing numerous 2D X-ray transmission images taken from multiple angles as the sample is rotated 360 degrees.
  • Results Interpretation: The reconstructed 3D model allows for a direct comparison between the patent drawings and the actual product's structure. For instance, if a patent claims an 'eight-layer stacked memory die,' the CT image can verify if eight dies are indeed stacked. This 3D data serves as a crucial navigation map for FIB processing.

🤖 LLM Prompt Example: Comparing 3D Structure to Patent Drawings


# Role: 3D CT Data Analysis Expert
# Input: [A series of slice images from the 3D volume data]

# Analysis Requirements:
1. Identify and count the Through-Silicon Via (TSV) structures.
2. Analyze the die stack structure (number of layers, thickness, spacing).
3. Analyze the wire bonding/flip-chip bump pattern.
4. Compare the structural similarity with the patent drawings.
(Specifically, reference drawing: [Attach Patent Drawing])

# Target Structures:
- "8-layer stacked memory die"
- "Vertical through-electrode structure"
- "Symmetrical bonding pad layout"

Describe the analysis results in connection with the patent claims.
        

Step 3: Precision Sample Preparation - A Nanoscale Surgery

To directly observe the micro-circuitry inside the chip, the outer protective layers must be removed and the specific area of interest precisely exposed. Every action in this stage is irreversible, making it a high-stakes procedure akin to delicate surgery where evidence preservation is the top priority.

💡 A Note on Evidence Integrity
Every step of the analysis must be conducted with the expectation of court submission. Adopting the concept of a Minimal Viable Evidence (MVE) package is critical. An MVE should include:
  • Original Sample Information: Photos of the original chip, serial numbers, and the SHA-256 hash if it's a file.
  • Chain of Custody Log: Model names of all equipment, software versions, and the exact commands and settings used.
  • Data Integrity: Hash values (SHA-256) of all raw data (images, logs, pcap files) must be recorded with UTC timestamps to prove they have not been altered.
  • Analyst's Declaration: A signed affidavit from the analyst attesting that all procedures were followed correctly.
This rigorous documentation ensures the credibility and reproducibility of the evidence.

3.1 Decapsulation

  • Purpose: To cleanly and safely expose the surface of the silicon die for analysis.
  • Principle: The Epoxy Molding Compound (EMC) protecting the chip is removed using methods such as chemical etching, laser ablation, or plasma etching. The best method is chosen based on the chip's characteristics.

🤖 LLM Prompt Example: Determining Optimal Process Conditions


# Role: Semiconductor Packaging Process Expert
# Task: Select a decapsulation method that minimizes damage

# Product Information:
- Package Type: [BGA/QFN/etc.]
- Wire Material: Pd-coated Cu wire (assumed)
- EMC Material: Epoxy Molding Compound
- Target Analysis Area: Metal interconnect layers on the die surface

# Technical Literature Search Request:
1. Find chemical decapsulation conditions that are non-corrosive to Cu wires.
2. Compare the pros and cons of plasma etching vs. chemical etching.
3. Recommend relevant process parameters (temperature, time, concentration).
4. For each method, assess the expected level of damage and its impact on analysis reliability.

Please provide answers based on the latest academic papers and technical notes.
        

3.2 FIB (Focused Ion Beam) Precision Cross-Sectioning

  • Purpose: To obtain a clean, flat cross-section suitable for SEM or TEM analysis, enabling accurate examination of material interfaces, cracks, metal layer thicknesses, and more.
  • Principle: This technique uses a highly focused beam of heavy ions, such as Gallium (Ga+), accelerated at high energy to mill away material from a specific point on the sample, atom by atom (a process called sputtering).
  • Results Interpretation: FIB is essential when a patent claim specifies a feature in a microscopic area, such as the ‘spacer structure between the gate and source/drain of a FinFET.’ It allows for the precise isolation and preparation of that exact location for analysis.

🤖 LLM Prompt Example: Drafting a FIB Milling Script


# Role: FIB Processing Optimization Expert
# Input: 3D CT coordinate data + target transistor location

# Task:
Draft a FIB milling script that meets the following conditions:
- Target Coordinates: X=1250 µm, Y=890 µm, Z=15 µm (relative to die surface)
- Target Structure: Gate cross-section of a FinFET transistor
- Required Resolution: <5 nm
- Milling Depth: Approx. 2 µm

# Script Requirements:
1. A multi-step approach for coarse and fine milling.
2. Optimized ion beam voltage/current conditions.
3. Logic for real-time SEM image feedback during milling.
4. Final polishing conditions to achieve atomic-level surface flatness.

# Output: A script for the FIB machine with detailed comments for each step.
        

Step 4: High-Resolution Structural & Compositional Analysis

This is the core of the reverse engineering process, where the prepared sample's cross-section is examined under high-magnification microscopes to directly verify the physical structures and material compositions specified in the patent claims. The images and data obtained here become the most direct and powerful evidence in the claim chart.

4.1 SEM/EDS Analysis

  • Purpose: To visually confirm nanoscale microstructures, measure critical dimensions like circuit line widths and thin-film thicknesses, and simultaneously analyze the elemental composition.
  • Principle: A SEM (Scanning Electron Microscope) scans the sample surface with an electron beam and detects secondary electrons to generate a high-resolution 3D topographical image. An EDS (Energy Dispersive X-ray Spectroscopy) detector, often attached to the SEM, analyzes the characteristic X-rays emitted from the sample when struck by the electron beam to identify the elements present and their relative amounts.
  • Results Interpretation: SEM images can be used to measure the fin height or gate length of a FinFET. EDS results are typically presented as a spectrum, which identifies elements by their characteristic energy peaks, and an elemental map, which visualizes the distribution of each element with different colors. For example, if a map of a gate structure shows a concentration of Hafnium (Hf) and Oxygen (O) in a specific layer, it provides strong evidence that the layer is HfO₂.

🤖 LLM Prompt Example: Comprehensive SEM/EDS Data Analysis


# Role: SEM/EDS Data Analyst
# Input: [SEM image + EDS elemental mapping data]

# Analysis Task:
1. Identify each layer of the High-K Metal Gate structure.
   - Measure the thickness of the gate dielectric (HfO₂).
   - Confirm the presence of the barrier metal layer (TiN).
   - Analyze the structure of the gate electrode (W).
2. Differentiate materials based on the Backscattered Electron (BSE) image contrast.
3. Interpret the quantitative results from the EDS analysis.
4. Evaluate the consistency with the patent claim.

# Patent Claim: "A transistor structure comprising a High-K dielectric layer with a thickness of 2-3nm and a metal gate electrode."

Objectively evaluate for potential infringement based on the measured values.
        

🤖 LLM Prompt Example: Automated Analysis of Large Image Sets


# Role: Pattern Recognition and Statistical Analysis Expert
# Input: [Folder containing 2000 SEM images]

# Automated Analysis Request:
1. Automatically identify FinFET patterns in each image.
2. Automatically measure the Gate Pitch and Fin Width for each identified FinFET.
3. Calculate the statistical distribution of the measured values (mean, standard deviation, min/max).
4. Detect and classify any anomalous patterns (defects).

# Target Accuracy: >95%
# Output: A Python pandas DataFrame and visualization charts.

Evaluate the results in relation to the patent claim for a "regular array of fin structures."
        

4.2 TEM Analysis

  • Purpose: To precisely measure the thickness of ultra-thin films at the atomic layer level, analyze the interface structure between different materials, and determine the material's crystalline structure (crystalline/amorphous).
  • Principle: Unlike SEM, a TEM (Transmission Electron Microscope) obtains an image by passing an electron beam *through* an extremely thin sample (typically under 100nm). The contrast in the resulting image is determined by the sample's density, thickness, and the degree of electron scattering and diffraction by its crystal structure.
  • Results Interpretation: TEM offers the highest spatial resolution, allowing direct observation of atomic columns. It can provide irrefutable proof for claims such as "a 2nm thick hafnium oxide layer formed on a silicon substrate." Furthermore, if features characteristic of a specific deposition method, like the excellent thickness uniformity and conformal coverage of Atomic Layer Deposition (ALD), are observed, it strongly supports the argument that said process was used.

🤖 LLM Prompt Example: TEM Lattice Image Analysis


# Role: TEM Lattice Fringe Analysis Expert
# Input: [High-Resolution TEM Image]

# Task:
1. Measure the lattice fringe spacing and identify the crystal structure via FFT analysis.
2. Analyze the characteristics of the interface between different materials.
3. Check for evidence of an Atomic Layer Deposition (ALD) process.
4. Differentiate between crystalline and amorphous regions.

# Analysis Tools:
- Fast Fourier Transform (FFT) analysis
- Lattice spacing measurement algorithm
- Interface roughness quantification

# Patent Relevance:
Substantiate the claim of a "uniform thin-film interface formed by atomic layer deposition" with evidence from the TEM image.

# Output: Image annotations + measurement data + interpretation report
        

Step 5: Specialized Analysis - Measuring the Invisible

This step analyzes the 'unseen' factors that determine the core electrical properties of a semiconductor, which cannot be observed with conventional electron microscopy. This provides direct evidence of 'how a device was designed to operate.'

5.1 SIMS (Secondary Ion Mass Spectrometry) Analysis

  • Purpose: To quantitatively measure the depth profile of dopants (e.g., Boron, Phosphorus), which are key elements determining the device's performance.
  • Principle: A primary ion beam continuously sputters the sample surface. The ejected secondary ions are then guided into a mass spectrometer, which separates and detects them to analyze elemental concentration by depth, down to the parts-per-billion (ppb) level.
  • Results Interpretation: The output is a log-linear graph with depth on the x-axis and concentration on the y-axis. This allows for precise determination of peak concentration, junction depth, and the overall shape of the doping profile. A patent claim for a "Lightly Doped Drain (LDD) structure" can be proven by showing a SIMS profile with a specific graded concentration near the source/drain regions.

🤖 LLM Prompt Example: Interpreting SIMS Data


# Role: SIMS Data Interpretation Specialist
# Input: [SIMS depth profile graph]

# Analysis Requirements:
1. Accurately identify the p-type/n-type doping junction location.
2. Determine if a Lightly Doped Drain (LDD) structure exists.
3. Calculate the dopant concentration gradient.
4. Assess the need for matrix effect correction.

# Patent Claim: "A transistor comprising a lightly doped region between the source/drain and the channel."

# From the graph analysis, determine:
- Dopant concentration in the LDD region: ___ atoms/cm³
- Length of the LDD: ___ nm
- Concentration gradient: ___ atoms/cm³/nm

Provide a comprehensive assessment, including measurement uncertainty and correction methods.
        

5.2 EBSD (Electron Backscatter Diffraction) Analysis

  • Purpose: To analyze the microstructure of polycrystalline materials like metal interconnects, determining the size, shape, and orientation distribution of crystal grains.
  • Principle: Performed within an SEM, an electron beam hits a crystalline sample, causing electrons to diffract off the atomic lattice. Some of these backscattered electrons form a distinct geometric pattern known as a Kikuchi pattern, which contains unique information about the crystal structure and orientation at that point.
  • Results Interpretation: The primary output is a crystal Orientation Map, where each grain is colored according to its crystallographic orientation. If most grains share a similar color, it indicates the film has a preferred orientation or texture. This can be used to prove a claim like "a copper interconnect with a preferred (111) orientation for enhanced electrical reliability."

🤖 LLM Prompt Example: Generating an EBSD Data Analysis Script


# Role: EBSD Data Processing and Visualization Expert
# Task: Write a script for statistical analysis of crystal orientation.

# Requirements:
1. Extract crystal grains with (111) orientation from raw EBSD data.
2. Calculate the percentage of the total area occupied by (111) oriented grains.
3. Generate a histogram of grain size distribution.
4. Visualize the orientation map.

# Input Data: EBSD file in .ang format
# Target Output:
- Statistical report (PDF)
- High-resolution orientation map image
- Analysis results in a CSV file

# Patent Relevance: Provide quantitative data to substantiate the claim of "(111) preferred orientation of copper interconnects."

Write a complete Python script and add comments to major functions.
        

Step 6: LLM-Powered Claim Chart Drafting Strategy

All reverse engineering efforts culminate in the creation of a legally persuasive claim chart. A well-crafted claim chart translates complex technical data into a clear, logical argument that a judge or jury can understand.

💡 Key Strategies for a Strong Claim Chart
  • Select the Best Evidence: Use the most direct and irrefutable data to prove each claim element (e.g., TEM images for nanometer-scale thickness, EDS data for material composition).
  • Clear Annotation: Use arrows, labels, and scale bars on analytical images to explicitly show where the claim elements are met. Leave no room for interpretation.
  • Objective and Factual Narration: Describe the evidence factually, such as, "The TEM image shows a layer with a thickness of 2.1 nm." Avoid subjective or conclusive language like, "The TEM image clearly proves infringement." Argumentation is the attorney's role; the claim chart is the collection of facts supporting that argument.

🤖 LLM Prompt Example 6.1: Automating Evidence-to-Claim Mapping


# Role: Patent Claim Chart Specialist
# Task: Convert technical evidence into legal document format.

# Input Data:
- Patent Claim: "A transistor having a plurality of fin structures formed on a substrate, wherein each fin has a width of 7nm or less."
- Analytical Evidence:
  - SEM Measurements: Average fin width of 6.2 nm ± 0.3 nm (n=500).
  - Statistical Distribution: 99.2% of fins are 7nm or less.
  - Image Evidence: [SEM Image A, B, C]

# Requirements:
1. Use objective, fact-based language.
2. Include measurement uncertainty.
3. Specify statistical confidence.
4. Adhere to a formal legal tone and style.

# Output Format:
"The accused product meets the 'fin width of 7nm or less' element of the claim as follows: [Evidence-based description]"

Exclude any emotional or speculative language; state only the pure facts.
        

🤖 LLM Prompt Example 6.2: Auto-generating Image Annotations and Descriptions


# Role: Technical Image Annotation Specialist
# Input: [SEM-EDS Elemental Mapping Image]

# Task:
Identify the distribution areas of the following elements and link them to the patented structure:
- Hf (Hafnium): Gate dielectric
- Ti (Titanium): Barrier metal layer
- W (Tungsten): Gate electrode
- O (Oxygen): Oxide layer

# Output Requirements:
1. Color-coded annotations for each elemental region.
2. Indication lines for measuring layer thickness.
3. Explanation of the structural correspondence with the patent drawings.
4. A high-quality image layout suitable for court submission.

# Image Caption: "Confirmation of High-K Metal Gate structure via EDS elemental mapping. Physical evidence for claim element (c) of the patent."
        

Step 7: Expert Verification and Legal Validation

Any output generated by an LLM must be verified by a human expert. Furthermore, systematic evidence management is essential to ensure the credibility of the entire analysis process.

7.1 Cross-Verifying LLM Outputs

It's crucial not to rely on a single LLM. Using multiple models (e.g., Claude, ChatGPT, Gemini) to cross-verify results can help filter out biases or errors specific to one model.

🤖 LLM Prompt Example: Cross-Verification Request


# Role: Analysis Results Cross-Verifier
# Task: Verify the technical accuracy of results generated by another LLM.

# Targets for Verification:
1. Draft of a claim chart written by Claude.
2. SEM image interpretation analyzed by ChatGPT.
3. Image annotations generated by Gemini.

# Cross-Verification Method:
- Confirm consistency between interpretation and raw data.
- Perform an independent re-analysis using a different LLM.
- Detect technical errors and logical fallacies.
- Review the accuracy of legal terminology.

# Output: Verification report + recommended revisions.
        

7.2 Assembling the MVE (Minimal Viable Evidence) Package

In litigation, the integrity and chain of custody of evidence are paramount. The Minimal Viable Evidence (MVE) package is a systematic collection of documents that records and preserves every step of the analysis to establish its legal admissibility. An LLM can be used to generate and manage a tailored MVE checklist for each project.

🤖 LLM Prompt Example: Generating an MVE Checklist


# Role: Forensic Evidence Management Specialist
# Task: Generate a checklist of MVE components.

# Analysis Project Information:
- Project Name: [Project Name]
- Analysis Period: [Start Date] to [End Date]
- Primary Analysis Methods: SAM, CT, FIB-SEM, TEM, SIMS, EBSD

# Requirements:
Generate a detailed MVE checklist including the items below, and specify the required documents and retention period for each.
- Original sample information and hash values
- Calibration certificates for all analysis equipment
- Raw data files and backup locations
- Full LLM interaction logs (prompts and responses)
- Analyst identity verification
- Record of analysis environment and conditions (temperature, humidity, etc.)
- Certificate of compliance with quality management standards
        

Frequently Asked Questions (FAQ)

Q: Is there a risk of the LLM misinterpreting analysis results?
A: Absolutely. LLMs can be prone to ‘hallucinations’ or may miss subtle technical nuances. Therefore, any LLM-generated response must be cross-verified by a human expert against the original data (e.g., SEM/TEM images, numerical data). It's critical to remember that the LLM is a tool to assist the analyst, not the final decision-maker.
Q: How much does semiconductor reverse engineering typically cost?
A: Depending on the depth and scope of the analysis, costs can range from tens of thousands to hundreds of thousands of dollars. Atomic-level analyses like TEM and SIMS are particularly expensive due to the required equipment and specialized personnel. Therefore, it's vital to assess the likelihood of finding a ‘smoking gun’ with preliminary, less expensive methods (like non-destructive and SEM analysis) and to plan the analysis based on a cost-benefit evaluation.
Q: Our company doesn't have the necessary equipment. How can we conduct RE?
A: Most companies outsource semiconductor RE to specialized third-party labs. The key is to clearly define, manage, and oversee the analysis: what to analyze, in what order, and under what conditions. The workflow and LLM strategies in this guide can be invaluable for defining technical requirements and effectively reviewing the results when collaborating with external labs.
Q: If the chip is damaged during analysis, does the evidence lose its validity?
A: This is a critical point. It's precisely why a Minimal Viable Evidence (MVE) package and meticulous documentation are necessary. Before analysis, the state of the original sample should be documented with photos and videos. Every step of the analysis must be recorded, and all outputs (images, data) should be timestamped and hashed to prove the chain of custody. This process ensures that even destructive analysis can be accepted as admissible evidence in court.
Q: How can I write the most effective LLM prompts?
A: Great prompts have three key elements: a clearly defined 'role,' specific 'context,' and a request for a 'structured output format.' For instance, instead of just saying, “Analyze this image,” a more effective prompt would be, “You are a materials science Ph.D. Analyze this SEM image to measure the gate length of the FinFET. Report the result to two decimal places and mark the measurement location on the image.” Being specific is always better.

Conclusion: The Optimal Synergy of Human Experts and AI

Leveraging LLMs for semiconductor reverse engineering is an innovative methodology that goes beyond simple efficiency improvements to achieve a quantum leap in analytical quality and the strength of legal evidence. However, the most important principle to remember is that the ultimate responsibility for all technical interpretations and legal judgments still rests with human experts.

Core Principles for Successful LLM Integration
  1. Clear Division of Labor: LLMs handle data processing and drafting; humans handle verification and final judgment.
  2. Multi-Model Approach: Strategically use different LLMs based on their strengths for specific tasks.
  3. Rigorous Verification: Always cross-reference LLM outputs with the original source data.
  4. Legal Safeguards: Ensure evidence integrity by compiling a comprehensive MVE.

Ultimately, the success of this process depends on close collaboration between technical and legal experts. The legal team must clearly define the key elements of the patent claims, and the technical team must present analytical results as clear, objective data linked to those legal issues. When scientific evidence and legal logic are combined in this way, data from the lab can become the most powerful and persuasive weapon in the courtroom. If you have any questions, feel free to ask in the comments! 😊

특허를 바라보는 한국 사회의 프레임에 대하여

한국의 언론은 특허 분쟁을 다룰 때 흔히 감정적이고 피해자 중심의 프레임을 씌워, 기업들이 공격적인 특허 주장으로 ‘괴롭힘을 당하는’ 것처럼 묘사하곤 한다. 이런 서사는 종종 헤드라인에서 더욱 과장되며, 정당한 특허권 행사조차 ‘삥뜯기’와 다를 바 없...