ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 인텔 모빌아이 (Intel Mobileye) CES 2020 (자율주행 / ADAS / 카메라 / 컴퓨터 비전 알고리즘 / VIDAR / 로보택시 / REM / EyeQ 칩)
    카테고리 없음 2020. 3. 7. 23:48

    >


    ​ ​ ​ 1. 모빌의 아이(Mobileye)​(1) 작은 기업 개요-1999년에 설립된 이스라엘에서 설립된 비전(Vision)기반 지능형 운전자 보조 시스템(ADAS)서비스 제공 업체 ​-2014년 뉴욕 증권 거래소에 상장.이스라엘 작은 기업이 추진한 작은 기업공개(IPO) 사례 중심에서 가장 큰 성공을 거두어 유명. 2017년 인텔이 약 17조 6,000억원에 인수. 모빌 아이의 인수는 인텔의 역사를 통해서 가장 성공적인 선택 사항의 하나로 꼽히는 것 ​-핵심 기술인 지능형 ADAS는 전방 충돌 경고(FCW), 보행자 충돌 경고(PCW)차선이 가면 경고(LDW), 지능형 전조등 제어(IHC), 속도 제한 표지(SLI)등을 지원 ​ 창업 초기 BMW, GM, 볼보 등 완성 차 업체에 주문자 상표 부착 방식(OEM)에서 제품을 제공했지만 2007년부터는 에키프부터 시장에도 진출하고 독자 브랜드 이미지 구축 ​-과거 테슬라 역시한 모델 S에 천장률 주행 모드의 오토 승부나 롯데(Autopilot)기능을 실현하는, 모빌의 아이의 비전 중심 컴퓨팅 칩'EyeQ 3'을 채용했지만 오토 파하나롯에 에러가 발생하면서 운전 사망 글재주가 발생. 이 뭉지에우에 현재 파트 너의 관계 종료 ​-2019년 ADAS시장의 큰 성장에 힘입어 매출액이 10억달러에 육박하고 최근 2019년 3분기 매출은 전년 동기 대비 20%이상 성장 ​


    >


    <출처:TECH M>​ ​ ​(2)의 주요 서비스-FCW(Forward Collision Warning):전방 차량 충돌 경보 ​-HWM&Warning(Headway Monitoring&Warning):차간 거리의 모니터링과 경보 ​-PCW(Pedestrian Collision Warning):보행자 추돌 경보 ​-LDW(Lane Departure Warning):차선이 가면 경보 ​-SLI(Speed Limit Indication):제한 속도 표지판 인식과 속도의 국물이 너무 경보 ​-REM(Road Experience Management):EyeQ 4 chip, GPS, G-Sensor통신 모듈이 내장된 Mobileye 8 Connect에서 고화질의 지도발발. 밑으로 더 자세한 설명 ​ ​ ​ ​ 2. 인텔 모빌에 CES 2020​-모빌에는 CES 2020으로 최근까지 누적 5,400만개 이상 출하된 '에큐(EyeQ)'칩을 포함하고 인텔에서 가장 빠르게 성장하는 비즈니스인 자율 주행 기술에 대해서 발표 ​-모빌에는 현재 레이더와 라이프니다만 탑재한 노하우그와 다만 카메라만을 탑재한 2개의 다른 노하우우에 자율 주행 기술을 개발하고 ​ 이 날, 인텔은 카메라 센서만 장착한 자율 주행 자동차가 도로를 주행하는 모습이 그 다소리 오래 무표은지프 23분짜리 동영상을 공개. 영상에서 차량은 복잡한 교차로, 보행자나 배달차량 등이 밀집한 환경 등에서도 운행에 성공 - 기타 자율주행을 위한 컴퓨터 비전, 매핑, 운전자 보조시스템(ADAS), MaaS(Mobility-as-a-Service)에 관한 기술과 개념에 대한 설명 - 실적도 급속하게 성장하고 있어 향후 데이터 수익화나 로보택시 등으로 사업을 확장할 것이라고 밝혔다.


    >


    <출처:Mobileye>​ ​ ​ ​ 3. 카메라 센서 비전 인식 ​-모빌 아이는 자율 주행에 두개의 각각 다른 방식으로 접근. 하나도 아름답지 않은 카메라만, 하나도 아름답지 않은 레이더와 라임만 사용해 비전인식-특히 자율주행을 위한 카메라 트렌드는 앞쪽에만 설치하는 것에서 사방을 감싸듯 천양하고 있다. 한편, 비용은 불과 수백달러에 불과 ​-카메라만 사용하는 방식의 자율 주행 차량이 센싱 실수가 발생할 확률은 하나 0,000시간당 한가지 사건이 목표. 이는 매 하나 2시간 운전하는 것이라고 말했을 때 하나 0년에 한번씩 ​-최종적으로는 라임과 레이더만 사용하는 방식과 결합하고 하나, 000만시간당 한가지 제안의 오류 확률을 달성할 것으로 기대 ​


    >


    <출처:Mobileye>​ ​ ​ ​ 4. 컴퓨터 비전(Computer Vision)​(하나)카테고리별 분류밖에)로드 사용자(Road Users):자동차, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 대상자를 인식. 그들은 정의함으로써 매우 다양하 ​ 2)로드 지오 메트리(Road Geometry):차로만 아니라 도로 표면의 종류 및 상태, 각도, 타카 moning이 각 차선의 의미 등을 이해 ​ 3)로드 바운더리(Road Boundaries):커브, 가드레일 등 주행 가능한 도로인지 경계를 구분 ​ 4)로드 시맨틱(Road Semantics):도로 위 내 주변의 신호등이나 표지는 보행자의 움직임, 차량의 캄파 구의 등을 인식하고 그 토우쯔카 무엇인지 이해. 특히 수신호 같은 보행자의 제스처로 운행이 가능한지 멈춰야 하는지 판정되기 때문에 이런 움직임의 의미를 이해하는 것은 중요함.


    >


    <출처:Mobileye>​ ​ ​(2)기술 구성 1)Detection(감지):픽셀 단위로 차량 및 사물의 외형(Appearance), 원근감이 나쁘지 않아 움직임 등을 통해서 3차원과 같은 깊이(Geometry)확인 ​ 2)Measurements(측정):차량을 정확히 제어하기 위해서는 모든 것이 3차원에 위치하고 있어야 하기 때문에 카메라를 통해서 입력을 받은 2D다실 3D로 변환 ​ 3)Internal Redundancy:위에서 이야기한 4개의 카테고리 내에서는 복수의 컴퓨터 비전 엔진이 독립적으로 실행된다. 다시 이야기하여 문제 하나 없이 크고 깊은 알고리즘을 사용하는 것이 아니라 서로 영향을 주지 않는 각기 다른 알고리즘을 여러 번 사용하여 감지 및 측정 기능을 구현


    >


    <출처:Mobileye>​ ​ ​ ​ 5. 컴퓨터 비전 알고리즘의 종류 ​(하나)감지 알고리즘, 예를 들면 이하의 리드하는 것의 흰색 버스를 인식하기 때문에 즉 로드 사용자 범주에서 감지 기능을 위한 6개의 각기 다른 엔진(알고리즘)을 사용 ​ 하나)3DVD:전통적인 패턴 인식의 비결. 먼저 모두 선취(선취)를 스캔하고 그 안에서 인식이 필요한 대상을 찾아 박스화하고 외형(appearance)을 확인한 다음신경망을 통해 학습. 차의 문이 열리고 있을 때는 그 안에서 갑자기 사람이 밖에 자신 올 수 있기 때문에 차문이 열리고 있는 상태, 휠체어, 유모차 등 특별한 경우도 인식할 수 있도록 학습 ​ 2)Full Image Detection: 그렇게 버스가 붙어 있어 크게 보이면 같은 외형에서도 박스화하기 어렵기 때문에 다른 방식으로 접근하는 알고리즘 ​ 3)Top View FS(Free Space):주도할 녹색 공간은 운전 가능한 공간인 무료 space에서 운전 불가능한 공간과 구분 ​ 4)VIDAR:라이더가 없는 카메라를 사용한 알고리즘. 사람은 삼각 측량을 통해서 눈에 들어간 2차원 리드하는 것을 3차원에서 느끼는 것처럼 차량을 둘러싼 하나 2대의 카메라(원거리용 8대, 주차용 4대)도 삼각 측량을 구현하고 3D리드 하는 것을 발생(테슬라와 같은 방식). 그리하여 여기서 얻은 선달의 데이터를 라이이다. 프로세싱 알고리즘에 주입하여 인공지능 신경망 학습※테슬라비전 인식비결 참고


    ​ ​ 5)Scene Segmentation:보행자, 자동차 도로, 나무 등 각 대상을 같은 부류별로 구분 ​ 6)Wheels​


    >


    <출처:Mobileye>​ ​ ​(2)측정 알고리즘 하나)Map World Model:REM기술을 통해서 HD맵 발발 ​ 2)Visual Road Model:HD맵을 활용하여 도로의 행태 나쁘지 않은 깊이, 각도, 높은 침이 등을 구분하고 3차원 정보를 얻는 알고리즘 ​ 3)Range Net:사물의 외형을 통해서 길이 나쁘지 않아 노 금과 같은 범위 측정 ​ 4)VIDAR​ ​ ​- 고런 알고리즘을 통해서 나쁘지 않아서 온 결과치를 최종적으로 모두 통합하고 자율 주행 의사 결정 ​-예를 들어 자율 주행 차량이 판단하므로, 그 차가 떠받치고 있는 전세가 주차된 차처럼 장애물로 여기고 이를 피하고 안 갈 것인지 아니면 교통 체증이 보통 기대 없이면서 천천히 나아가야 할 지 판단하는 것은 너무 헷갈리네 문재. 이를 해결하기 위해 단순히 전술한 것뿐 아니라 다른 알고리즘이 가져온 다양한 정보를 종합하여 어떤 정세인지 판단


    >


    <출처:Mobileye>​ ​ ​ ​ 6. 로봇 택시&에쟈 1(Agile)​-모빌의 아이의 주장은 자율 주행의 활용 사례는 가장 이미 서울로 택시이다. 1반 사람들이 자율 주행 차량을 구입할 수 있게 될 때보다 몇년은 이미 로보 택시 사업이 시행될 것으로 예상 ​-이것은 스토리 당싱로비지네스이어서 사람일수록 주행 성능이 좋지 않으면 성공할 수 없는 sound. 따라서 자율주행은 안전할 뿐만 아니라 남들만큼 민첩함과 재빠름이 중요-아래 예루살람에서 시행된 자율주행 영상을 보면 T자형 도로에서 모빌 어린이 차량은 비보호자 회전을 시도한다. 그러나, 본인차가 멈추지 않기 때문에, 모빌의 아이의 차는 멈춰 서는 것을 반복하면서 조금씩 전진. 결국 틈새를 내 직진차가 오기 전에 커브에 진입하고 자절성공-모빌 어린이는 자율주행차가 이처럼 형세에 맞춰 유연하고 기민한 주행능력까지 갖춰야 살아남는다. 설명


    ​ ​ ​ ​ 7.REM(Road Experience Management)​-복수의 차량에서 정보를 모으는 크라우드 소싱을 활용하고 고화질의 지도를 발생하는 기술 ​-L2+ADAS가 탑재된 차량이 주행하면서 들어온 또 일 중 중요한 정보만을 추출해서 클라우드의 서버에 전송 서버에는 인텔 고성능 서버용 CPU의 AI가속 기능을 활용하고 이를 종합하고 고화질의 지도를 발생한 뒤 다시 각 차량에 전송. 1킬로당 약 10킬로바이트에 불과했던 초등 저 대역 폭 데이터 업로드를 통해서 실시간으로 가까운 성능을 실현. 이 과정은 전체 자동화되고 시간당 45야드 1의 지도를 발생 ​-최신 16,000회 이상의 주행 데이터를 활용하고 라스 베이거스 나 400km이상의 고화질 지도 발생. 특히 네바다의 지면은 도로 지도를 발생하는데 24시간도 걸리지 않는다. 이 지도는 만개의 표지판, 만곳의 신호나 가로등 같은 기둥, 1,500km이상의 중앙선을 포함 수천개의 도로 주변 사물에 대해서 센티 미터 수준의 정밀도를 제공 ​-BMW, NISSAN, 폴크스바겐과 이제 2년 전체 부지, 이를 실시, 모빌 아이는 하루에 600만 km의 주행 데이터를 받아 왔다. 향후 분기까지 유럽 전역, 올해 말까지 미국 전역에 대한 도로 지도를 만들 수 있을 것으로 예상 ​-추가로 올해 3개 완성 차 업체와 100만대의 차량이 데이터를 보내기로 계약 체결. 이렇게 2022년까지 총 1,400만대의 차량에서 데이터를 받을 것으로 보이​-중국의 지면도 매핑을 돌리고 칭화 대학의 유니 그룹과 조인트 벤처를 만들어 데이터 수집 중.중국의 전기 자동차 회사 니오(NIO)는 중국 업체 가운데 모빌 아이의 자율 주행 시스템을 소비자용 차량에 가장 먼저 탑재한 대기업 2019년의 이야기에 니오에서 자율 주행 Lv4설계 수주를 받았으며 2022년 솔루션을 탑재한 차량의 발매 예상 ​


    >


    <출처: Mobileye> 8. Eye Q 칩(초) 개요-모빌 어린이의 완전 자율주행을 위한 비전 중심 컴퓨팅 칩. 카메라 기반 이제부터라고 처리 알고리즘과 ADAS기능이 이 프로세서 상에서 작동 ​-두개대, 즉 두개의 칩으로 구성된 우쟈 신 위에서 설명한 비전 알고리즘들은 모두 하나의 칩만으로 처리된 것( 다른 하자 입는 컴퓨팅 파워가 부족한 하나의 사태에 대비한 것으로 추측)​-전체 칩 크기 또한 90mm스퀘어에서 제온(인텔의 서버용 프로세서)와 같은 수백밀리 이상의 다른 제품보다 아주 작은 사이즈 ​ ​ ​(2)개발의 현황-20최초 7년 첫 2월 TSMC를 통해서 7쟈싱의 공정을 도입하고 EyeQ 5제작 완료, 20최초 8년 스토리 정식 공개 ​-현재 챠랴은 단 2개의 EyeQ 5칩으로 2022년에는 6개가 적용될 것으로 예상된다. 사실상 6개까지는 필요가 없우쟈 신 망하 낫을 대비해서 리스크를 막기 위해서 충분한 컴퓨팅 파워를 탑재 ​-2020년 EyeQ 6샘플의 출시가 예상된다. 2023년에는 챠랴은 단 단 하 쟈싱의 EyeQ 6칩 장착 ​-모빌 아이는 이런 자율 주행 시스템 비용을 첫 0,000~첫 5,000달러 수준에서 2025년까지 5,000달러 이하로 낮출 것이 목표. 그 정도가 1개 1개 소비자가 지불하는데 합리적인 비용이라고 의견


    >


    <출처:Mobileye>-이날 전반적인 발표를 듣고 느낀 점은 테슬라와 마찬가지로 비전인식 기술입니다. 라고 하는 고가의 하드웨어를 배제하고, 점차 소프트웨어 속에 단순화되어 가고 있는 것. 삼성의 갤럭시폰과 달리 구글의 픽셀폰이나 아이플의 유아폰, 고가의 카메라 모듈을 끼워 넣기보다는 인공지능을 통해 카메라 성능을 향상시키는 것 역시 마찬가지-그러므로 다시 일어나고 있는 자율주행을 위한 비전 기술이 점점 세분화되고 있다는 점. 보행자도 어떤 보행자, 어떻게 움직이는 보행자, 도로 또 미세한 각도에서 고오전이까지 측정하면서 정확도를 더 높여 운전 중 발생할 수 있는 모든 위험을 하루 동안 제거해 나가는 것으로 보인다. 또한 인공지능 신경망을 주제별로 압축하는 소프트웨어적인 방법으로 해결하고 있어 소프트웨어의 중요성은 계속 커질 것으로 보이며, 이러한 다양한 결과를 원활하게 통합하고 정확한 의사자결을 지원하는 기술 또한 중요해질 것으로 보인다.


    댓글

Designed by Tistory.