Showing posts with label GPU. Show all posts
Showing posts with label GPU. Show all posts

Thursday, January 30, 2025

DeepSeek R1의 두려움에서 벗어나라 (Break Free from the Fear of DeepSeek R1) !

서론(Background)

근 DeepSeek(딥시크) 관련 뉴스를 보면, 혁신 기술에 대한 논의가 정치적 문제로 비화하거나 기존 시장 경쟁이 무너질 것처럼 과도하게 부정적으로 다뤄지고 있다는 점에서 의구심이 든다. 몇몇 보도가 시장과 소비자의 불안 심리를 부추겨, 실제 상황을 더 악화시키는 듯한 인상도 준다.

Recent news coverage about DeepSeek seems to excessively politicize discussions on innovative technology or frame it as a threat to existing market competition. This raises concerns that some reports may be amplifying market and consumer anxiety, potentially worsening the actual situation.

여러 기사에서는 엔비디아 주가 급락의 원인을 중국 스타트업 딥시크로 단정 짓고, 심지어 딥시크가 키보드 입력 패턴을 수집해 중국으로 대규모 정보를 유출한다고까지 우려를 표한다. 하지만 그러한 주장이 객관적 증거에 기반한 것인지, 아니면 시장과 정책 입안자들에게 막연한 불안감을 심어주는 보도인지는 냉정하게 살펴볼 필요가 있다.

Several articles have attributed the recent drop in NVIDIA’s stock price entirely to the Chinese startup DeepSeek. Some even allege that DeepSeek collects keyboard input patterns and transmits vast amounts of data to China. However, we must question whether these claims are backed by solid evidence or merely fuel fears among the market and policymakers improperly.

특히 딥시크 R1 모델 등장 후 “엔비디아 GPU가 필요 없어질 것”이라는 주장도 나왔는데, 이는 “딥시크 R1이 GPU 없이도 고성능을 낼 수 있으니, 앞으로 AI 연구에서 GPU가 불필요해진다”는 전제에서 출발한다. 그러나 실제로는 고성능 하드웨어가 있을수록 더 큰 모델도 더 빠르게 학습할 수 있기 때문에 중국의 AI 모델이 제한된 GPU 자원으로도 주목할 만한 성과를 냈다면, 더 강력한 GPU를 활용하면 훨씬 뛰어난 결과를 낼 수 있다. 즉 AI 기술이 진화할수록 고성능 칩에 대한 수요가 증가할 공산이 크다는 것이다.

After the debut of the DeepSeek R1 model, some have claimed that "NVIDIA GPUs will no longer be needed." This argument is based on the premise that since DeepSeek R1 can deliver high performance without GPUs, AI research will eventually no longer require them. However, in reality, the more powerful the hardware, the faster and more efficiently larger models can be trained. If a Chinese AI model has achieved notable results despite limited GPU resources, then utilizing more powerful GPUs could yield even greater outcomes. In other words, as AI technology advances, the demand for high-performance chips is more likely to increase.

또한 OpenAI 같은 미국 기업들은 내부 구조나 모델 파라미터를 공개하지 않지만, 딥시크는 오픈 소스 형태로 공개해 많은 개발자·스타트업이 쉽게 접근할 수 있다. 딥시크가 활용한 비지도 학습의  강화 학습 기법은 대규모의 학습데이터가 필요없는 모델로 다른 기업도 사실상 그대로 적용 가능하므로, 이제는 다른 AI 모델들이 딥시크 방식을 이어받아 학습 효율을 높이기가 쉬워진다. 같은 방식이라면 더 많은 고성능 하드웨어를 투입할수록 더 빠르고 정확한 학습과 추론이 가능해져, 고성능 칩을 동원한 AI들이 딥시크보다 더 뛰어난 성능을 낼 잠재력이 크다. 이로 인해 고성능 반도체 수요 역시 상당히 늘어날 가능성이 있다.

Moreover, while U.S. companies like OpenAI do not disclose their internal structures or model parameters, DeepSeek has made its technology open-source, allowing easy access for many developers and startups. The reinforcement learning techniques used in DeepSeek's unsupervised learning are models that do not require massive datasets and can be practically adopted by other companies. Therefore, it is now easier for other AI models to adopt DeepSeek’s methods and enhance their learning efficiency. With the same approach, the more high-performance hardware is employed, the faster and more accurate the inference becomes, which means AI models using powerful chips have the potential to surpass DeepSeek in performance. Consequently, this could significantly increase the demand for high-performance semiconductors.

DeepSeek GitHub page : https://github.com/deepseek-ai/DeepSeek-R1/tree/main

한편, 딥시크 사례는 기존 미국 대형 기업들이 막대한 비용을 들여 개발한 모델에 비해 훨씬 적은 투자로도 유의미한 AI를 구현할 수 있음을 보여준다. 즉, “누구나 할 수 있다”는 메시지를 던지는 셈이다. 이는 특히 AI 산업에서 뒤처져 있던 한국 같은 IT 기업들에게도 기회가 될 수 있다. 그동안은 막대한 투자비에 가로막혀 AI 시장에 진입하기 어려웠지만, 딥시크가 촉발한 저비용 구조의 AI 모델이 확산된다면, 새롭게 AI 생태계에 적극 참여할 수 있는 길이 열릴 수 있기 때문이다.

Also noteworthy is the fact that DeepSeek demonstrates how one can achieve a meaningful AI system on a far more modest budget than what major American firms have historically poured into proprietary models. This effectively underscores the message that “anyone can do it.” For nations like South Korea, where the AI industry has lagged behind that of the United States or China, the historically steep AI development costs could now become less of a barrier. If DeepSeek’s low-cost model spawns broader adoption, these emerging markets might find themselves in a more dynamic AI ecosystem.

다만, 딥시크 측이 학습 데이터는 공개하지 않고 모델과 가중치(Weights)만 공개하고 있기에, 오픈 소스 이니셔티브(OSI) 정의상의 ‘완전한 오픈 소스’와는 다소 차이가 있다. 보통 이 같은 유형을 ‘오픈 웨이트 모델(Open Weight Model)’이라 부르지만, 모델 구조와 가중치·파라미터만으로도 재현이 가능한 만큼, ‘오픈 소스 모델’이라 부르는 데도 큰 문제는 없어 보인다.

However, DeepSeek only released the model code and weights, not the actual training data. So, strictly speaking, it doesn’t meet the Open Source Initiative (OSI) definition of open source. Typically, such releases are referred to as “Open Weight Models,” but since sharing the model structure and parameters is enough for replication, it’s arguably reasonable to label DeepSeek as an “open source model.”

흥미로운 점은 딥시크가 정부나 관 주도가 아닌 항저우 소재의 민간 스타트업이라는 것이다. 중국 총리가 뒤늦게 이를 알고 항저우로 직접 날아가 “무슨 일이 벌어지고 있는지” 확인했다는 이야기는, 정부가 미리 이 성과를 예측하지 못했음을 방증한다. 중국 스타트업이 만들었다고 해서 자동으로 정부 후원 프로젝트라고 볼 수는 없으며, 오히려 정부가 나중에야 성공 소식을 접했다는 일화가 이를 뒷받침한다.

An interesting aspect of DeepSeek is that it is a private startup based in Hangzhou, rather than a government-led initiative. Reports suggest that the Chinese Premier was unaware of its achievements until later and rushed to Hangzhou to personally assess “what was happening,” indicating that the government had not foreseen this breakthrough. 

The fact that DeepSeek was developed by a Chinese startup does not automatically imply state sponsorship; on the contrary, the government’s delayed recognition of its success reinforces the notion that it was not a premeditated state-backed project.

한편, 미국의 일부 대형 벤처캐피털(VC)들이 막대한 LP(출자자) 자금을 독점적(proprietary) AI 모델에 투자해왔고, 미국 정부가 중국 등 경쟁 시장을 배제하도록 로비하고 있다는 지적도 있다. 그러나 트럼프 등 여러 인사를 상대로 제재를 요구하는 것만으로 세계적 혁신 흐름을 막기는 어렵다는 평가가 많다. 이미 AI가 더 이상 미국 대형 업체의 전유물이 아닐 수 있음을 중국 등 다양한 국가들이 보여주고 있으며, 그들은 오픈 소스저비용 전략을 통해 빠르게 추격 중이다.

Meanwhile, some argue that a handful of major U.S. venture capital firms, which have funneled substantial LP (limited partner) funds into expensive proprietary AI models, are lobbying the U.S. government to exclude China and other competing markets. However, many believe that simply pressuring Trump for sanctions is unlikely to halt the global tide of innovation. Countries like China have already demonstrated that AI is no longer the exclusive domain of large American corporations, and they are rapidly closing the gap by leveraging open-source models and cost-effective strategies.

또한 ‘중국산이라 믿을 수 없다’는 서구권 태도가 얼마나 실효성이 있을지는 의문이다. 막연한 반중 정서를 부추기는 식의 접근은 시장과 혁신 전반에 해를 끼칠 수도 있다는 우려가 제기된다.

Likewise, the effectiveness of the Western stance dismissing technology solely because it originates from China remains uncertain. Some concerns that foster vague anti-China sentiment could harm the market and hinder overall innovation.

마지막으로, 개인정보 유출 우려와 관련해서는, 일반적으로 사용자가 텍스트를 입력한 뒤 ‘전송’ 버튼을 누르기 전까지는 서버에 전송되지 않는다. 하지만 자바스크립트 등의 스크립트로, 실시간 키 입력(간격·순서)을 추적해 ‘키보드 입력 패턴’을 수집할 기술적 가능성이 전혀 없는 것은 아니다. 그럼에도 지금까지 딥시크 AI가 실제로 그런 입력 패턴을 몰래 수집하고 있다는 구체적 보고나 증거는 확인되지 않았다. 이는 중국 안보 리스크를 과장해 막연히 불안감을 조성하는 프레임일 가능성이 높고, 충분한 객관적 근거 없이 성급한 결론을 내리는 것은 경계해야 한다.

Finally, regarding data privacy concerns—ordinarily, text typed into a prompt doesn’t get uploaded to a server until the user actually hits “Send.” In other words, under typical conditions, keystroke patterns aren’t transmitted before submission. 

It’s technically possible, however, to use JavaScript or similar scripts to capture input in real-time (including timing intervals and key order) even before the “Send” button is pressed. So far, though, there’s no solid evidence or reports that DeepSeek AI actually collects such data.

Such speculation may reflect a frame intended to magnify security risks tied to China, thereby sparking vague fears without concrete proof. 

This is likely a framing tactic that exaggerates China’s security risks to fuel unfounded fears. It is crucial to avoid hasty conclusions without sufficient objective evidence.


논문에서 밝힌 DeepSeek-R1의 특징

Key Features of DeepSeek-R1 Highlighted in the Paper

2025년 1월 20일에 발표된 DeepSeek-R1 관련 논문을 보면, DeepSeek-R1이 다단계 강화학습을 기반으로 하는 하이브리드 모델임을 확인할 수 있다.

According to a paper published on January 20, 2025, about DeepSeek-R1, one can see that DeepSeek-R1 is a hybrid model grounded in multi-stage reinforcement learning.

Reference: Guo, D., et al. (2025). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. arXiv preprint arXiv:2501.12948.

논문에 따르면, DeepSeek R1은 다음과 같은 특징으로 요약할 수 있다.

According to the paper, DeepSeek R1 can be summarized by the following key features:

1.  DeepSeek-R1-Zero:

  • 대규모 강화학습(large-scale Reinforcement Learning, RL)을 통해 사전 감독 학습(Supervised Fine-Tuning, SFT) 없이 학습된 모델.
  • 이 모델은 추론 능력이 뛰어나고 흥미로운 행동들을 자연스럽게 나타냄으로써 놀라운 성능을 보임.
  • 하지만 문제점으로는 문장 가독성(readability)이 낮고, 언어 혼합(language mixing) 문제가 있었음.

  • A model trained via large-scale reinforcement learning (RL) without supervised fine-tuning (SFT).
  • This model demonstrates outstanding performance by naturally exhibiting powerful reasoning capabilities and interesting behaviors.
  • However, it faced issues such as poor sentence readability and language mixing problems.

2.  DeepSeek-R1:

  • 이러한 문제를 해결하기 위해 도입된 후속 모델로, 다단계 학습(multi-stage training)콜드 스타트 데이터(cold-start data)를 강화 학습(RL) 이전에 도입.
  • 이를 통해 추론 성능이 개선되었으며, 결과적으로 OpenAI-o1-1217과 유사한 수준의 성능을 달성.

  • A follow-up model was introduced to address these issues by incorporating multi-stage training and cold-start data before reinforcement learning (RL).
  • This approach improves reasoning performance and, as a result, achieves performance comparable to OpenAI-o1-1217.

3.  공개와 모델 확장:

  • 연구 커뮤니티를 지원하기 위해 DeepSeek-R1-Zero, DeepSeek-R1, 그리고 DeepSeek-R1에서 증류(distillation) 6개의 밀집(dense) 모델을 오픈소스로 제공.

  • 증류된 모델들은 각각 1.5B, 7B, 8B, 14B, 32B, 70B 파라미터 크기로 구성되며, Qwen Llama 아키텍처 기반으로 설계됨.
  • To support the research community, DeepSeek-R1-Zero, DeepSeek-R1, and six dense models distilled from DeepSeek-R1 are provided as open-source.
  • The distilled models come in configurations of 1.5B, 7B, 8B, 14B, 32B, and 70B parameters and are designed based on the Qwen and Llama architectures.

Saturday, September 6, 2014

Nvidia vs. Samsung 특허침해소송으로 본 Nvidia의 라이센싱 전략


Nvidia vs. Samsung 특허침해소송으로 본 Nvidia의 라이센싱 전략



1.  들어가는 말

북미시간으로 ‘14 9 4, 델라웨어 소재 Nvidia는 삼성 (한국소재 삼성전자, 뉴욕소재 삼성전자아메리카, 델라웨어소재 삼성텔레커뮤니케이션 아메리카, 캘리포니아 소재 삼성반도체)와 델라웨어 소재 퀄컴을 US ITC 337 조사를 신청하고 델라워어 지방법원에 제소하였다는 뉴스가 전세계에 타전되었다. 동시에 Nvidia는 회사 블로그를 통해 이 제소사실을 적극적으로 소개하였다

Nvidia는 소장에서 단일 칩 플랫폼에서의 그래픽 프로세싱, 멀티쓰레드 병렬 프로세스(Multithereaded parallel processing), 통합 쉐어더(Unifided shader) 아키텍쳐, 프로그래밍할 수 있는 그래픽 쉐이딩(Programmable shading)과 그래픽 파이프라인에서의 초기 비쥬얼 테스트 등 최신 GPU 설계에 기본적으로 적용되는 핵심특허 7건을 삼성과 퀄컴이 침해하였다고 밝혔다.


미국법상 ITC와 민사소송이 동시에 제기 되면 ITC 피신청인, 즉 삼성은 민사소송 절차를 중지시킬 수 있는 권리가 생긴다. 삼성은 30일 이내에 델라웨어 지법 판사에게 절차중지(motion of stay)를 신청하고 ITC에 집중할 것으로 보인다.
이번 Nvidia의 특허침해소송은 애플과 삼성간의 특허분쟁 소강상태 이후, 삼성 스마트폰 사업에 가장 큰 영향을 미칠 소송으로 보인다. 따라서 본 지면을 통해 Nvidia의 라이센싱 전략과 제소의 배경 등을 들여다 보고자 한다.

계쟁특허에 대한 분석 등은 관련 소송 당사자의 몫으로 남긴다. 과연 Nviidia의 특허를 객관적으로 평가받을 때 얼마나 강한 특허로 인정될 지 궁금하다.


2.  Nvidia의 특허공격과 라이센싱 수익 사업 전략으로의 전환

Nvidia‘00년부터 현재까지 미국 델라워어지법, 텍사스동부지법 등에서 30건의 특허소송을 치루었다. 그러나 방어가 아니라 원고로 공격을 한 것은 이번이 처음이었다. 그동안 방어적인 특허소송만 하다가 처음으로 공격에 나선 것이다. Nvidia는 램버스와의 특허소송에서도 승리를 거둔바 있다.
Nvidia‘11년 인텔로부터 거액의 로열티를 받은 이후 Nvidia의 주요 수익원으로 로열티 수익을 추가하면서, 회사의 수익창출 모델에서 i) 자신이 개발한 GPU가 탑재된 Tegra SoC(CPU GPU가 통합된 SoC)가 사용될 수 있는 시장에서는 Tegra SoC 제품의 판매수익으로, ii) Tegra SoC가 채택되기 어려운 시장에서는 GPU 특허사용에 따른 로열티 수익으로 재편한 것으로 보인다

현재 출시되는 대부분의 비쥬얼 장비(스마트폰, 테블렛, PC, 랩탑 등) GPU를 채용하고 있으며, 모바일 기기에서는 GPU를 독립 배치하지 않고 Tegra SoC 와 같이 CPU GPU가 통합된 APU SoC를 대부분 채택하고 있다. 따라서 최근 Nvidia Tegra SoC 매출은 결국 GPU 개별매출을 증대시키는 pipeline이 되고 있다.

Nvidia의 전략에 따르면 GPU를 사용하는 장치사업자(Device integrator)Nvidia Tegra SoC를 구매하든지 아니면 로열티를 지불하여야 한다는 것이다.

Nvidia가 특허 로열티를 또 하나의 매출 수익원으로 전환하였다고 해서 NvidiaPatent Troll은 아니다. Nvidia는 특허를 최대한 이용하여, 즉 특허공개정책을 통해 제품 매출 증대의 시너지 효과는 물론 더불어 특허수익을 일으켜 보자는 이상적인 특허경영전략으로 전환한 것이다.


3.  Nvidia가 주요사업으로 라이센싱 사업을 추진하게 된 배경은 무엇이었을까?

Nvidia‘98년부터 수조원을 투자하여 GPU(Graphic Processing Unit)를 개발하여 ‘99년에 GeForce256이란 이름으로 GPU를 처음 출시한 GPU 칩 전문회사다. 현재 GPU관련 500 여건의 핵심 특허와 7000여건의 특허를 구비하는 막강한 특허포트폴리오 구축한 것으로 알려져 있으며, GPU의 아버지, 아니 할아버지로 불리고 있다.


‘10년 넘어서면서 컴퓨터 시장에서는 CPU GPU가 하나의 기판(다이)에 구현되는 통합 칩셋(SoC), APU가 주목을 받기 시작하였고 현재 대부분의 모바일 시장은 APU SoC칩을 채택하고 있다.
Nvidia는 개별 GPU 시장을 넘어서 ‘11 ARM CPU 코어와 Nvidia GPU를 통합한 Nvidia Tegra SoC를 발표하면서 의욕적으로 APU 시장에 도전장을 냈다. 이것은 CPU 시장을 차지하고 있는 인텔 및 AMD와 강한 Cross Licensing 관계에 있었기 때문에 가능한 것이었을 것이다. 이와 같은 APU는 최근 PC는 물론 모바일 기기에서 대부분 채택하고 있다.
 

CPU 시장을 독점하고 있는 인텔과 2대 강자로 시장에 진입한 AMD 역시 APU를 출시하기 전  Nvidia와 특허분쟁 자유도를 확보하기 위해서는 Cross Licensing Agreement가 큰 도움이 되었을 것이다.

참고로 인텔은 '11년경 Nividia와 Cross Licensing Agreement를 체결하면서 Nvidia에게 1.5 billion 달러( 1.6조원)의 로열티를 5년간 할부 지급하면서 6년간 개발한 기술 중 SEP(substantial essential patent)에 대해서는 양자간 Patent Pools 형성하기로 합의한 것은 널리 알려진 바이다.

Nvidia‘13년 기준 PC용 개별 GPU 시장에서 70% 점유율 차지하고 있는 1위 업체로 성장하였다. 그러나 모바일 시장은 달랐다. 모바일 시장에서는 다수의 GPU 공급자, 즉 경쟁자가 존재하였다. 그러나 고객사 입장에서는 다수의 GPU 공급자에게 면책의무만 잘 부여하면 리스크를 감수할 수 있고 가격 및 성능과 공급능력을 경쟁시켜 자신의 경쟁력을 극대화 할 수 있으므로 역시 이러한 경쟁을 즐길 수 밖에 없었을 것이다.

모바일시장의 절대 강자인 삼성은 Galaxy S5, Note4, Tab S, Galaxy Note Edge 등 대부분의 신형 Galaxy 스마트폰과 테블렛을 개발하면서 퀄컴이 개발한 Snapdragon SoC와 삼성이 개발한 Exynos SoC 를 채택하였다.


삼성의 Exynos SoCARM Holding사로부터 라이센싱 받은 기술을 기초로 개발된 것으로 알려졌으며 모바일폰 칩 주요 메이커로 부상하는 계기가 되었다고 한다

위키피디아에 실린 글을 보면 ExynosCPU GPU를 하나의 다이에 집적한 칩으로 주로 CPU ARM 모델을 GPU ARM Mali, Imagination Tech PowerVR , 그외 IT Power를 채택하고 있다고 한다. 따라서 이번 특허소송으로 모바일 GPU 시장의 공급자가 대부분의 모델이 분쟁 대상이 되었다고 보아도 무방할 것이다. 퀄컴의 Snapdragon SoC는 자체 개발한 Adreno GPU를 채택한 것으로 알려져 있다.


PC 시장은 점차 쇠퇴하고 모바일 기기 시장으로 대체되어 급성장하고 있다. 또한 개별 GPU 시장은 쇠퇴하고 APU 통합 SoC시장이 급성장하고 있다. 따라서 모바일 기기 사업자(Integrator) 들이 Nvidia GPU가 사용된 Tegra SoC를 사용하지 않는다면 Nvidia의 미래는 불투명해질 수 밖에 없다.


Nvidia GPU와 관련 기술의 선구자로 다수의 핵심특허와 다량의 특허포트폴리오를 갖추고 있다. 이러한 특허를 사용하여 회사 비즈니스를 극대화시키고 수익을 창출할 수 없다면 차라리 NPE에게 팔아버리는 것이 더 현명한 생각이라는 결론에 이르렀을 것이다.

나아가 인텔이 Nvidia의 특허 사용의 대가로 지급하는 1.6조라는 거액의 로열티는 사업전략 전환에 자신감을 갖게 하였을 것이다.


이러한 이유로 Nvidiai) 자신이 개발한 GPU가 탑재된 Tegra SoC(CPU GPU가 통합된 SoC)가 사용될 수 있는 시장에서는 Tegra SoC 제품의 판매수익으로, ii) Tegra SoC가 채택되기 어려운 시장에서는 GPU 특허사용에 따른 로열티 수익으로 회사의 주요 매출수익구조가 되도록 재편한 것으로 보인다


4.  왜 삼성을 공격대상으로 하였을 까?

2013 3월경 Nvidia는 그동안 대만 파운더리(임가공업체인 TSMC GPU 위탁생산을 맡겨왔으나 간헐적인 수율 저하문제가 칩공급에 차질이 빚어지자 삼성과 85%이상 수율달성을 조건으로 파운더리(임가공)계약을 맺었다는 기사가 실렸다한편 애플은 아이폰과 아이패드에 들어가는 APU생산을 삼성대신 TSCM으로 전환하였다는 기사도 있었다. Nvidia는 물론 애플도 국내 삼성라인과 대만 TSCM간의 대립구도를 적절히 활용하고 있는 것 같다.
삼성은 Nvidia의 파운더리(임가공후보 업체이자 장치사업자로서 GPU 구매 고객이었다그럼에도 Nvidia가 왜 GPU 공급업체(경쟁자)를 조준하지 않고 삼성과 같은 장치사업자(Device integrator)(고객)를 정조준하였을 까?

그 첫번째 이유는 앞에서 이미 설명한 바와 같이 Nvidia의 라이센싱 사업전략때문이다. 즉, 장치 사업자중 Nvidia의 Tegra SoC 를 구매하지 않는 고객사를 선별하여 공격하는 것이다. Imagination Tech.사 PowerVR가 결합된 Intel 제품은 Intel의 라이센싱 계약에 의해 해결된다고 밝힌 점을 보아도 Nvidia는 누가 GPU 제조업체가 아니라 장치사업자(Device Integrator)에게 책임을 묻겠다는 의지인 것으로 풀이된다. 

그렇다면, 애플도 자신의 제품, 아이폰이나 아이패드에 GPU를 채택하고 있고 애플 역시 Nvidia Tegra SoC를 구매하지 않는데왜 애플은 공격하지 않고 삼성만을 공격했는지에 대한 의문이 해소되지 않는다.
그 답은 알 수 없다그러나 여러 가지 정황과 경험을 가지고 추측해보면, Nvidia가 소장에서 밝힌 바와 같이 여러 업체와 라이센싱 협상 중이었는데, 삼성이 ‘12년부터 시작하여 2년이 넘게 진행된 협상에서 계속 Chip 공급자의 책임으로 회피하고 협상에 소극적이었을 것으로 보인다. Nvidia는 특허소송이란 매개체를 이용하여 더이상 이런방식의 지리한 밀고당기기를 중단시키고 로열티 협상의 불을 당길 상황이나 니즈가 발생하였거나 인내에 한계가 왔을 수도 있다. 한편 소장에서 스마트폰 어플리케이션 프로세서 시장에서 50%를 점유하고 있는 퀄컴에 대한 증거를 중심으로 개시하였을 뿐 아니라 삼성 자체 개발한 Exynos SoC에 대한 침해 역시 주장하고 있다는 것은 삼성이 단순히 공급자의 면책의무로 돌리고 로열티 협상에서 빠지려는 시도를 차단하려는 것으로 해석된다.
또 둘째로 하나의 중요한 이유는 GPU supply chain에 대해 좀 더 상세히 다루겠지만 삼성 스마트폰테블렛은 전세계 모든 GPU 공급자의 제품을 사용하고 있다는 것이다쉽게 말하면 삼성을 공격하면 전세계 대부분의 Main 경쟁자를 압박할 수 있다는 것이다. 일타 쌍피오피? (one shot , all killed )인것이다.
ARM사는 Nividia와 협력관계에 있고 경쟁자중 가장 막강한 특허를 보유하고 있다. 나아가 섬성 역시 ARM사로 부터 이전받은 기술을 기반으로 SoC칩을 개발하였다. Nvidia가 ARM을 정조준하여 Nvidia 특허기술을 무단으로 사용의 책임을 묻고 싶어도 비즈니스 리스크가 너무 크다. 차라리 삼성을 공격하고 간접적인 압박이 더 최선의 대안이었을 것이다. 사실 ARM가 Nividia와 삼성사이를 저울질하는 트러블 메이커인 것 같다는 느낌이다.



마지막 셋째로 Nvidia는 삼성을 GPU 관련 기술개발이나 특허를 갖추지도 않고 라이센싱과 칩부품 구매에만 의존하여 APU SoC를 개발하고 자체 사용하는 장치 사업자(Device integrator)로 본 것이다이러한 회사를 상대로 특허 공격하는 것이 역공의 위험도 줄일 수 있을 뿐 아니라, Supply Chain의 upstream 및 downstream에 미치는 효과를 극대화 할 수 있기 때문이었을 것이다.


<end>



Copyright © CHINSU LEE, This article is for informational purposes and is not intended to constitute legal advice.

Does AI determine the outcome of patent lawsuits? Visualization strategies for patent attorneys (AI가 특허 소송의 승패를 가른다? 변리사를 위한 시각화 전략)

  변리사님, 아직도 특허 도면 수정 때문에 밤새시나요? Patent Attorneys, still pulling all-nighters over drawing modifications? 특허 문서만으로 복잡한 기술을 설명하는 데 한계를 느...