AI 칩 개발의 간략한 역사

인공 지능 분야는 계속해서 돌파구를 만들고 있습니다. 인공 지능 기술의 중요한 초석인 AI 칩은 막대한 산업적 가치와 전략적 위치를 가지고 있습니다. 인공 지능 산업 체인의 핵심 링크 및 하드웨어 기반인 AI 칩은 기술 연구 개발 및 혁신에 대한 매우 높은 장벽을 가지고 있습니다. 칩 개발 추세로 보면 아직은 AI 칩 개발 초기 단계다. 미래는 AI 칩 개발의 중요한 단계가 될 것이며 아키텍처와 디자인 개념 모두에서 혁신의 여지가 큽니다.

1. 칩의 발전사

1956년 다트머스 회의에서 과학자 John McCarthy, Claude Shannon 및 Marvin Minsky는 "인공 지능"이라는 용어를 만들었습니다. 1950년대 후반, Arthur Samuel은 실수로부터 학습할 수 있고 학습 후에는 그것을 만든 사람들보다 훨씬 더 잘 플레이할 수 있는 체커 프로그램을 개발하면서 "머신 러닝"이라는 용어를 만들었습니다.

컴퓨터 기술이 빠르게 발전하는 이 시대에 낙관적인 환경은 연구원들로 하여금 AI 기술이 단기간에 "정복"할 것이라고 믿게 만듭니다. 과학자들은 인간 두뇌의 기능을 기반으로 한 컴퓨팅이 실생활의 문제를 해결할 수 있는지 연구하여 "신경망"이라는 개념을 만들었습니다. 1970년 마빈 민스키는 "라이프" 잡지에서 "향후 3~8년 안에 우리는 보통 사람들의 지능 수준을 가진 기계를 갖게 될 것"이라고 말했습니다.

1980년대 AI는 실험실을 벗어나 상용화에 들어가 투자의 물결을 일으켰다. 1980년대 후반 AI 기술 거품이 마침내 터지고 AI는 연구 분야로 복귀했으며 과학자들은 AI의 잠재력을 계속 개발했습니다. 업계 관찰자들은 AI를 시대를 앞서간 기술이라고 부르는 반면, 다른 사람들은 AI를 미래 기술이라고 말합니다. 소위 "AI 겨울"이라는 오랜 기간이 지난 후 상업 개발이 다시 시작되었습니다.

1986년에 Geoffrey Hinton과 그의 동료들은 다층 또는 "깊은" 신경망의 성능을 크게 향상시키는 "역전파(back-propagation)"라는 알고리즘을 설명하는 획기적인 논문을 발표했습니다. 1989년에 Yann LeCun과 Bell Labs의 다른 연구자들은 손으로 쓴 우편 번호를 인식하도록 훈련될 수 있는 신경망을 만들어 새로운 기술의 중요한 실제 적용을 보여주었습니다. 딥 러닝 컨볼루션 신경망(CNN)을 훈련하는 데 단 3일이 걸렸습니다. 2009년으로 넘어가 스탠포드 대학의 Rajat Raina, Anand Madhavan 및 Andrew Ng는 최신 GPU가 딥 러닝에서 멀티 코어 CPU보다 훨씬 더 많은 컴퓨팅 성능을 가지고 있다고 설명하는 논문을 발표했습니다. AI는 다시 항해를 시작할 준비가 되었습니다.

지난 20년 동안 무어의 법칙이 발전한 덕분에 충분한 컴퓨팅 파워는 인공지능 알고리즘이 요구하는 컴퓨팅 성능을 수용 가능한 가격, 전력 소비 및 시간으로 제공할 수 있게 합니다. 인텔의 프로세서 칩 용량과 소매가 비교 계산에 따르면 단가당 구매할 수 있는 컴퓨팅 파워는 1만5000배 증가해 '범용 중앙처리장치(CPU)'가 다양한 인공지능 작업을 지원할 수 있다. 칩 기술을 통해 인공지능 연구개발을 크게 강화할 시기가 무르익었다고 할 수 있다. 그러나 CPU는 수백 가지 작업에 맞게 설계되고 최적화되어야 하므로 특정 유형의 애플리케이션에 최적화하기 위해 유연성을 희생하는 것은 불가능하므로 모든 AI 알고리즘에 대해 최선의 선택이 아닐 수 있습니다. 이러한 이유로 컴퓨팅 리소스 및 메모리 액세스 병목 현상에 대한 연구를 해결하기 위해 CPU와 전용 칩을 갖춘 다양한 이기종 컴퓨팅 솔루션이 등장했습니다. 또한 '두뇌에서 영감을 받은' 심층 신경망과 다른 '두뇌와 유사한' 컴퓨팅 연구에서도 첨단 뉴로모픽 칩을 도입해 초고에너지 효율로 자연스러운 학습 방식을 지원하고 있다.

2. AI 칩의 개발 단계

인공지능 코어 컴퓨팅 칩도 크게 네 가지 변화를 겪었다.

2007년 이전에 인공지능 연구와 응용은 여러 번의 부침을 겪었고 성숙한 산업으로 발전하지 않았으며 동시에 당시 알고리즘과 데이터와 같은 요인에 의해 제한되어 인공지능에 대한 수요가 특별히 강하지 않았습니다. 이 단계의 칩과 범용 A CPU 칩은 충분한 컴퓨팅 성능을 제공할 수 있습니다. 나중에 고화질 비디오, 게임 및 기타 산업의 발전으로 인해 GPU 제품은 급속한 돌파구를 만들었고 동시에 GPU의 병렬 컴퓨팅 특성은 인공 지능 알고리즘 및 빅 데이터 병렬 요구 사항을 충족한다는 것이 밝혀졌습니다. 컴퓨팅의 효율을 9배에서 72배까지 높일 수 있어 인공지능 계산에 GPU를 사용하기 시작했습니다. 2010년에 접어들면서 클라우드 컴퓨팅이 대대적으로 추진되었고, 인공지능 연구자들은 클라우드 컴퓨팅을 통해 많은 수의 CPU와 GPU를 이용하여 하이브리드 컴퓨팅을 수행할 수 있다.사실 오늘날 인공지능의 주요 컴퓨팅 플랫폼은 여전히 ​​클라우드 컴퓨팅이다. 그러나 인공지능 산업의 컴퓨팅 파워에 대한 요구 사항은 계속해서 빠르게 증가하고 있기 때문에 2015년에 접어들면서 업계는 인공 지능을 위한 특수 칩을 개발하기 시작했으며 더 나은 하드웨어 및 칩 아키텍처를 통해 컴퓨팅 효율성을 10배 더 향상시킬 것입니다. .

(1) FPGA 기반 세미 커스텀 인공지능 칩

칩에 대한 수요가 아직 대규모에 도달하지 않았고 딥 러닝 알고리즘이 아직 안정적이지 않고 지속적인 반복 개선이 필요한 경우 재구성 가능한 FPGA 칩을 사용하여 반 맞춤형 인공 지능 칩을 실현하는 것이 최선의 선택입니다.

이러한 유형의 칩의 뛰어난 대표자는 국내 신생 기업인 Shenjian Technology로, 이 회사는 ASIC 수준의 전력 소비로 GPU보다 더 나은 성능을 달성하기를 희망하는 "Deep Processing Unit"(Deep Processing Unit, DPU) 칩을 설계했습니다. 첫 번째 제품의 수는 FPGA 플랫폼을 기반으로 합니다. 이러한 종류의 세미 커스텀 칩은 FPGA 플랫폼에 의존하지만 명령어 세트와 컴파일러의 추상화를 사용하여 신속하게 개발하고 반복할 수 있으며 전용 FPGA 가속기 제품과 비교할 때 매우 분명한 이점이 있습니다.

(2) 딥 러닝 알고리즘을 위한 완전 맞춤형 인공 지능 칩

이 유형의 칩은 ASIC 설계 방식을 사용하여 완전히 맞춤화되었으며 성능, 전력 소비 및 면적 표시기는 딥 러닝 알고리즘에 최적화되어 있습니다. 구글의 TPU 칩과 중국과학원 컴퓨팅기술연구소의 캄브리아기 딥러닝 프로세서 칩이 대표적이다.

Cambrian은 국제적으로 딥 러닝 프로세서의 방향을 개척했습니다. Cambrian 프로세서를 예로 들어 Cambrian 시리즈에는 현재 세 가지 프로토타입 프로세서 구조가 포함되어 있습니다. 2(대규모 신경망용 영어 이름 DaDianNao), Cambrian 3(다양한 심층 학습 알고리즘용 영어 이름 PuDianNao).

캄브리안 칩은 올해 안에 산업화될 예정이다. 그중 캄브리안 2는 28나노 공정에서 주주파수 606MHz, 면적 67.7mm2, 소비전력 약 16W다. 싱글칩 성능은 메인스트림 GPU 대비 21배 이상, 에너지 소모량은 메인스트림 GPU 대비 1/330에 불과하며, 64개의 칩으로 구성된 고성능 컴퓨팅 시스템은 메인스트림 GPU 대비 450배까지 성능을 향상시킬 수 있으며, 그러나 총 에너지 소비량은 1/150에 불과합니다.

(3) 뇌에서 영감을 얻은 컴퓨팅 칩

이러한 유형의 칩의 설계 목적은 더 이상 딥 러닝 알고리즘을 가속화하는 데 그치지 않고 칩의 기본 구조와 장치 수준에서도 뇌와 같은 새로운 컴퓨터 아키텍처가 개발될 수 있기를 희망합니다. 멤리스터 및 ReRAM과 같은 새로운 장치를 사용하여 스토리지 밀도를 향상시킵니다. 이러한 칩에 대한 연구는 시장에서 대규모로 널리 사용될 수 있는 성숙한 기술이 되기에는 아직 멀고 위험도 크지만 장기적으로는 두뇌에서 영감을 얻은 칩이 컴퓨팅 시스템의 혁명을 가져올 수 있습니다. .

이러한 유형의 칩의 전형적인 대표는 IBM의 Truenorh 칩입니다. TrueNorth 프로세서는 100만 개의 디지털 뉴런을 포함하는 어레이를 형성하는 54억 개의 연결된 트랜지스터로 구성되며, 차례로 2억 5600만 개의 전기 시냅스를 통해 서로 통신합니다.

3. AI 연구개발 방향

최근 몇 년 동안 AI 기술의 적용 시나리오는 자동차의 자동 운전 및 휴대폰의 얼굴 인식과 같은 모바일 장치로 이동하기 시작했습니다. 산업계의 요구는 기술 고도화에 기여하였고, 산업의 기반이 되는 AI 칩은 AI 기술이 클라우드에서 단말로 완벽하게 이전되기 위해서는 더 강력한 성능, 더 높은 효율성, 더 작은 크기를 달성해야 합니다. .

현재 AI 칩의 두 가지 주요 연구 개발 방향이 있습니다. 하나는 전통적인 von Neumann 아키텍처를 기반으로 하는 FPGA(Field Programmable Gate Array) 및 ASIC(Application Specific Integrated Circuit) 칩이고 다른 하나는 모방하도록 설계된 인공 지능입니다. 인간 두뇌 뉴런의 구조뇌와 같은 칩. 그 중 FPGA와 ASIC 칩은 연구 개발과 응용 모두에서 일정한 규모를 형성했으며, 뇌에서 영감을 얻은 칩은 아직 연구 개발 초기 단계에 있지만 잠재력이 크며 업계의 주류가 될 수 있습니다. 미래.

이 두 가지 개발 경로의 주요 차이점은 전자는 폰 노이만 아키텍처를 따르는 반면 후자는 두뇌와 유사한 아키텍처를 사용한다는 것입니다. 당신이 보는 모든 컴퓨터는 폰 노이만 아키텍처를 사용합니다. 핵심 아이디어는 프로세서와 메모리가 분리되어야 CPU(중앙 처리 장치)와 메모리가 있다는 것입니다. 뇌와 유사한 아키텍처는 이름에서 알 수 있듯이 인간 뇌의 뉴런 구조를 모방하므로 CPU, 메모리 및 통신 구성 요소가 모두 통합됩니다.

4. AI 칩의 기술적 특성 및 대표 제품

GPU에서 FPGA 및 ASIC 칩까지

2007년 이전에는 당시 알고리즘과 데이터 등의 요인으로 인해 AI는 칩에 대한 수요가 특별히 강하지 않았고 범용 CPU 칩은 충분한 컴퓨팅 성능을 제공할 수 있었습니다.

이후 고화질 비디오 및 게임 산업의 급속한 발전으로 인해 GPU(그래픽 처리 장치) 칩이 급속한 발전을 이루었습니다. GPU는 데이터 처리를 위한 논리적 연산 단위가 더 많기 때문에 높은 병렬 구조에 속하며, 그래픽 데이터와 복잡한 알고리즘을 처리하는 데 CPU보다 유리하고, AI 딥러닝은 모델 매개변수가 많고 데이터 규모가 크기 때문에 그 후 상당 기간 GPU가 CPU를 대체하면서 당시 AI 칩의 주류가 됐다.

GPU는 CPU보다 논리 연산 장치(ALU)가 더 많습니다.

그러나 GPU는 결국 AI 딥러닝 전용 칩이 아닌 그래픽 프로세서일 뿐, 당연히 부족한 부분도 있다. 에너지 소비.

동시에 AI 기술의 적용은 나날이 증가하고 있으며 교육, 의료, 무인운전 등의 분야에서 AI를 볼 수 있다. 그러나 GPU 칩의 높은 에너지 소비는 업계의 요구를 충족시킬 수 없으므로 FPGA 칩과 ASIC 칩이 대신 사용됩니다.

이 두 칩의 기술적 특성은 무엇입니까? 대표상품은?

"범용 칩" FPGA

FPGA(FIELD-PROGRAMMABLEGATEARRAY), 즉 "Field Programmable Gate Array"는 PAL, GAL 및 CPLD와 같은 프로그래밍 가능한 장치를 기반으로 더욱 발전된 제품입니다.

FPGA는 "범용 칩"으로 이해할 수 있습니다. 사용자는 FPGA 구성 파일에 구워 이러한 게이트 회로와 메모리 간의 연결을 정의하고 하드웨어 설명 언어(HDL)로 FPGA 하드웨어 회로를 설계합니다. 프로그래밍이 완료될 때마다 FPGA 내부의 하드웨어 회로에는 명확한 연결 방법과 특정 기능이 있으며 입력 데이터는 각 게이트 회로를 차례로 통과하기만 하면 출력 결과를 얻을 수 있습니다.

일반 영어로 "유니버설 칩"은 필요한 기능과 가질 수 있는 기능을 갖춘 칩입니다.

"범용 칩"이라는 이름에도 불구하고 FPGA에 결함이 없는 것은 아닙니다. FPGA 구조의 유연성이 높기 때문에 단일 칩의 대량 생산 비용도 ASIC 칩보다 높으며 성능 측면에서도 FPGA 칩의 속도와 에너지 소비가 상대적으로 절충됩니다. ASIC 칩으로.

즉, "유니버설 칩"은 "올라운더"이지만 성능은 ASIC 칩만큼 좋지 않으며 가격도 ASIC 칩보다 높습니다.

그러나 칩에 대한 수요가 아직 대규모에 도달하지 않았고 딥 러닝 알고리즘을 반복적으로 지속적으로 개선해야 하는 경우 재구성 가능한 기능을 갖춘 FPGA 칩이 더 적합합니다. 따라서 반 맞춤형 인공 지능 칩을 구현하기 위해 FPGA를 사용하는 것은 의심할 여지 없이 보험 선택입니다.

현재 FPGA 칩 시장은 미국 제조사 자일링스와 알테라가 양분하고 있다. 외신 마켓워치의 통계에 따르면 전자가 세계 시장점유율 50%, 후자가 약 35%를 차지하고 있으며, 두 제조사가 시장점유율 85%를 점유하고 6000개 이상의 특허를 보유하고 있다.

자일링스의 FPGA 칩은 로우엔드부터 하이엔드까지 스파르탄(Spartan), 아틱스(Artix), 킨텍스(Kintex), 버텍스(Vertex) 등 4개 시리즈로 나뉘며 칩 기술도 45나노미터부터 16나노미터까지 다양하다. 칩 기술의 수준이 높을수록 칩은 작아집니다. 그 중 스파르탄과 아틱스는 주로 민간 시장을 겨냥한 것으로 무인운전, 스마트홈 등이 적용되고, 킨텍스와 버텍스는 주로 군사 시장을 겨냥하고 국방, 항공우주 등에 적용된다.

Xilinx의 Spartan 시리즈 FPGA 칩

Xilinx의 오랜 라이벌 Altera에 대해 이야기해 봅시다. Altera의 주류 FPGA 칩은 두 가지 범주로 나뉘는데, 하나는 저비용 애플리케이션, 중간 용량 및 성능이 Cyclone 및 MAX 시리즈와 같은 일반적인 애플리케이션 요구 사항을 충족할 수 있고 다른 하나는 고성능 애플리케이션, 대용량 및 성능에 중점을 둡니다. Startix 및 Arria 시리즈와 같은 다양한 고급 애플리케이션을 충족할 수 있습니다. Altera의 FPGA 칩은 주로 소비자 가전, 무선 통신, 군사 항공 및 기타 분야에서 사용됩니다.

에이식

AI 산업 애플리케이션이 대규모로 부상하기 전에 병렬 컴퓨팅에 적합한 FPGA와 같은 범용 칩을 사용하여 가속화를 달성하면 ASIC과 같은 맞춤형 칩을 개발하는 데 드는 높은 투자와 위험을 피할 수 있습니다.

그러나 방금 말했듯이 범용 칩의 원래 설계는 딥 러닝을 위한 것이 아니기 때문에 FPGA는 필연적으로 성능 및 전력 소비 측면에서 병목 현상이 발생합니다. 인공 지능 응용 프로그램의 규모가 확장됨에 따라 이러한 문제는 점점 더 두드러질 것입니다. 즉, 인공 지능에 대한 우리의 모든 좋은 아이디어는 인공 지능의 급속한 발전을 따라잡기 위해 칩이 필요합니다. 칩이 따라가지 못하면 인공지능 발전의 병목 현상이 될 것이다.

따라서 최근 몇 년 동안 인공 지능 알고리즘 및 응용 프로그램의 급속한 발전과 연구 개발 결과 및 기술의 점진적인 성숙으로 ASIC 칩은 인공 지능 컴퓨팅 칩 개발의 주류가 되고 있습니다.

ASIC 칩은 특정 요구에 맞게 맞춤화된 전용 칩입니다. 다용도가 희생되긴 하지만, ASIC은 특히 고성능, 저전력 소모, 작은 크기의 칩을 필요로 하는 모바일 기기, 예를 들어 우리의 휴대폰에서 성능, 전력 소모, 부피 측면에서 FPGA 및 GPU 칩보다 우위에 있습니다.

그러나 다목적성이 낮기 때문에 ASIC 칩의 높은 R&D 비용은 높은 위험을 초래할 수도 있습니다. 그러나 시장 요인을 고려하면 ASIC 칩은 사실상 업계의 대세다.

왜 그런 말을 해? 서버와 컴퓨터에서 무인 자동차, 드론, 스마트 홈의 다양한 가전 제품에 이르기까지 수많은 장치에 인공 지능 컴퓨팅 기능과 인식 및 상호 작용 기능을 도입해야 합니다. 실시간 요구 사항 및 교육 데이터 개인 정보 보호 고려 사항으로 인해 이러한 기능은 클라우드에 완전히 의존할 수 없으며 로컬 소프트웨어 및 하드웨어 인프라 플랫폼에서 지원해야 합니다. ASIC 칩의 고성능, 저전력 소비 및 작은 크기의 특성은 이러한 요구 사항을 충족할 수 있습니다.

Supongo que te gusta

Origin blog.csdn.net/leyang0910/article/details/130089262
Recomendado
Clasificación