DNN Python,AI 관련 영어 독해력을 올린다(의미를 반대로 느끼면 마음이 부러지기 때문에...주의 예:however,···) 지금 생, 영어가 몸에 붙을지 어떨지는, 매우, 미묘하지만. 더 이상의 영어 능력의 저하는 피하고 싶다! ⇒ 약간의 저항으로 기사를 쓴다. (올바른 대답은 다독!! 아마) 여기에서는 영어가 반대의 의미로 읽고 읽는 마음을 잃는 경우가 많기 때문에, 그렇게 되지 않는 유의점을 정리한다(아직, 1건입니다만...) 아래의 책에서 파이썬에서 private에 대한 설명에서 Python Pocket R... 파이썬사랑DeepLearning영어DNN Jetson Nano 성능 정보 Jetson Nano는 전력값으로서 5(watts)라든지 작은 숫자가 나타나 있다. NVIDIA 사이트에서 정보를 데리러. 출처: At just 70 x 45 mm Jetson Nano delivers 472 GFLOPs for running modern AI algorithms fast. high-performance computing at just 5 to 10 watts. NVIDIA ... JetsonNanoNVIDIACNNDNNGPU 심층 학습 관련으로 재미 있다고 생각한 자료 N선(N=9) 이해가 잘못되어 있다(잘못하고 있는 것을 깨닫지 못하고 있는 것이지만) 곳이나, 이해하기 어려운 곳이라든지 많이 있어, 가끔 우연히 관심사를 조금 가려서 자료를 만날 수 있다. 자료 1 “심층 학습의 범화에 관한 수리적 연구의 진전” 한층 더 도시되어 있는 것이 재미 있었다. 심층 학습의 설명성 등으로, 가시화를 시도하는 예가 있지만, 이 자료는, 1층 1층 나타나고 있으므로, 참고가 되는 ... CNNDNNDeepLearning 활성화 함수 Mish: Self Regularized Non-Monotonic Activation Function을 시도했습니다. 짚에 갈고 싶은 생각으로,,, 활성화 함수 Mish를 시험해 보았다. (실제는, 좀 더 편하게,,,, 하지만, 뭔가 훌륭한 것 없을까...라고 하는 생각에서.) Mish는 다음과 같은 형태의 활성화 함수입니다. 출처 : 위의 github 의 코드를 사용했습니다. 구체적으로는 cifar-10-resnext-50-mish.ipynb 의 코드를 이동했습니다. 주피터 노트를 사용하는 방법을 모르기 ... mishCNNReLUDeepLearningDNN 심층 학습과 같은 Python (keras) 오류 "TypeError : Unexpected keyword argument passed to optimizer : learning_rate"에 대한 조치 심층 학습으로, 확실한 github로부터 얻은 코드를 실행해도, 에러가 나오는 경우가 있다. 여기서, keras의 이하의 에러에 대한 대처 방법을 설명한다. 결론부터 먼저 쓰면, keras의 버전을 upgrade하면 해결한다. 또한, keras의 버전이 너무 새롭고 오류가 발생하는 경우의 또 다른 경우이므로, 항상 새롭게 하는 것이 만능적인 해가 아니다. 에러의 내용은, 이하. 오류에 대한 ... Keras파이썬CNNlearnig_rateDNN keras 배우기 ( model = Model(inputs=inputs, outputs=predictions) ) keras 사이트의 다음 코드에서, Model(inputs=inputs, outputs=predictions) 와 같은 in과 out의 정의로, 왜, 복수의 레이어를 가지는 model이 구성할 수 있을지 몰랐기 때문에 조사했다. 이하 근처에서, 딱딱 접속하고 있는 것 같다. \site-packages\keras\engine\network.py 네트워크 구조를 어떻게든하는 코드에 익숙하지 않기... Keras파이썬CNNtensoflowsDNN OpenVINO를 사용하여 WSL 속도 확인 OpenVINO를 사용하여 WSL의 속도를 확인합니다. 그다지 좋은 속도 검증의 소재가 생각나지 않기 때문에, OpenVINO의 데모를 사용했습니다. PC: ideapad 320S CPU: Intel Core i3-7100U CPU @ 2.40GHz OS:Windows10 버젼 1803(OS 빌드 17134.829) WSL (Windows Subsystem for Linux) : 위의 Win... CNNOpenVINOWSLDNN 문헌 『Machine learning for embedded deep dive』 읽기 표제 문헌 Machine learning for embedded deep dive Presented By Andy Luo Sr. Product Marketing Manager XILINX DEVELOPER FORUM 사이트 에서 액세스 (다운로드) 할 수 있습니다. 다른 기사에도 비슷한 것을 썼지만, 딥 러닝 모델의 처리량을 알고 싶을 수 있습니다. 처리량으로서는, G-Ops 등으로 나타내어... FPGAxilinxCNNGOPDNN 컨벌루션 신경망(CNN)에 대한 설명이 너무 부담스럽지 않습니까? (1층째 정도밖에 성공하지 않은 것은?) 컨벌루션 신경망의 설명을 하고 있는 사이트가 많이 있다. 설명의 방법으로서 CNN의 층별 역할을 설명하는 방법이 취해지고 있는 경우가 자주 있다. 다양한 해설이 있지만, 한층 눈 정도의 설명(엣지등을 추출하고 있는 등)은, 순조롭지만, 그 이후의 설명이 약간 비약이 있다고 느낀다. 아래의 「[C]더욱 이쪽의 그림」의 항에서 인용하고 있는 내용, 레이어 세 번째 레이어 다섯 번째 레이어 별로 ... ConvolutionalNeuralNetworksCNNconvolutionDeepLearningDNN 자료『JETSON AGX XAVIER AND THE NEW ERA OF AUTONOMOUS MACHINE』 읽기 자료『JETSON AGX XAVIER AND THE NEW ERA OF AUTONOMOUS MACHINE』을 읽는다. 자료는 다음과 같습니다. 이 기사의 첫 번째 목적은 위의 문서가 DNN 모델 당 처리량 (GOPS)을 설명하기 때문에 그 양을 참조하는 것입니다. GOP(Giga Operations) GOPS(Giga Operations per Second) 인용 페이지: VISION NET... NVIDIACNNJetsonXavierDNN 신경망 활성화 함수 Sigmoid와 ReLU의 관계 신경망의 활성화 함수에는 Sigmoid 함수와 ReLU 함수가 있다. 개인적으로는, 그 2개의 관계를 오랫동안 착각하고 있었으므로 간단하게 그 내용을 나타낸다. Sigmoid 함수 ReLU 함수 위의 함수의 내용을 보면, Sigmoid 함수 쪽이 고도의, 일반적인 의미로, 레벨이 높은 함수로 보인다. 개인적으로는, Sigmoid 함수의 exp() 포함한 계산의 처리 시간을 단축하기 위해서, ... 시그모이드CNNReLUNeuralNetworkDNN 문헌 『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』을 읽는다. Kaiyuan Guo, Lingzhi Sui, Jiantao Qiu, Song Yao, Song Han, Yu Wang, Huazhong Yang1. From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration. 2016 IEEE Hot Chips 28 Symposium (HCS) 이 문헌은 ... FPGAxilinxCNNGOPSDNN 문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다. Alfredo Canziani & Eugenio Culurciello, Adam Paszke. AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS. arXiv : 1605.07678v4. 이 문헌은 이하에 공개된다. 딥 러닝 모델의 처리량을 알고 싶을 수 있습니다. 처리량으로서는, G-Ops 등으로 나타내어지고 있는 것이... Network-modelTOPSCNNGOPSDNN 물리적 필기 문자 인식 평상시는 음성 처리와 키 배열과 Vim을 만지르고 있는 대학이 1회생입니다. 최초의 Qiita에의 투고라고 하는 것으로, 이번은 제가 좋아하는 키보드와 기계 학습에 관한 기사입니다. 2018/04/01, 만우절에 Google이 다음 동영상을 공개했습니다. 당시 고등학교 3학년이었던 저는 이것에 충격을 받았는데, 지식과 경험이 얕았기 때문에 구현을 포기했습니다. 대학생이 된 지금이라면 할 수 ... KerasPython3TensorFlowDNN기계 학습 Google Lens는 어떤 기술로 만들어졌나요? 구글 그래서 Tensorflow? GoogLeNet? Google Lens는, 찍은 것이 무엇인가를 가르쳐 준다. 밑그림(인용)의 경우, 찍은 식물이 「츠바키」라고 Google Lens가 가르쳐 준다. , 하얀 점 같은 것이 많이 있다. 자, 이것(Google Lens)은, 어떤 기술로 되어 있는 것일까? 기업 비밀이라고 할까, 경쟁사도 있기 때문에, Google이 적극적으로는, 정보를 공개하고 있지 않다고 생각한다. 정보가 공개되면 난이도에 ... TensorFlowlensgoogleDNNGoogLeNet 심층 학습의 일반 물체 인식을 구현한 FPGA가 민생품에 채용되었다 - Lovot라는 가정용 로봇 - 먼저 기사를 썼다. 기사도 썼다. 최근(2019년 12월) 일반물체인식을 구현한 FPGA가 민생품에 채용된 기사를 보았다. 그 로봇의 이름은 에서 심층 학습에서 FPGA를 사용하고 있다고 말했다. 도쿄 근교에 거주하는 경우, 아래의 체험회에 신청하여 그들이 어떻게 사용되고 있는지를 알 수 있다. 추가: 아래의 점포에서 실제로 만날 수 있습니다. 나고야 타카시마야 로보틱스 스튜디오 참고 You... FPGAxilinxDeepLearning심층 학습DNN [참고] 라즈파이와 Pi 카메라로 번거 로움없이 물체 인식 RasPi3B+로 1fps 정도 ※ Youtube에서 "스크램블 교차로"에서 검색. 번거 로움없이 하야리 물체를 인식하고 싶습니다. "시간을 들이지 않고"... OpenCV 3.3 이상에서 사용할 수 있습니다 RaspberryPi2/3용 빌드됨 사용 관련: 학습된 모델 사용 20가지 물체 조금 시험하고 싶을 뿐인데, 움직일 때까지의 환경을 시작하는 것이, 면도,라고 하는 분에게. Raspbe... RaspberryPiOpenCVMobileNetSSDDNN이미지 인식 DNN 학습에 관한 기술 @ 제로 1 가중치의 초기 값에 따라 NN 학습의 성공 여부를 구분할 수 있습니다. 이상 : 가중치를 줄이고 그 분포도 가능한 한 균등하게 만듭니다. → 활성화의 편향이 작아져 표현력이 향상 → 결과적으로 과학습을 억제하고 일반화 성능이 향상된다 "활성화"= "활성화 함수 후의 출력 데이터" 예를 들어, Sigmoid 함수 활성화는 활성화 함수 이후의 값이다. 이 값이 0 또는 1로 편향된 경우 그 기울... BatchNormalization활성화 함수심층 학습DNN기계 학습 OpenCV의 dnn::readNetFromDarknet에서 YOLOv3 사용 OpenCV 4.1.2에서는 DNN 모듈에 CUDA 옵션이 추가되었습니다. 이 DNN 모듈은 다양한 프레임워크에서 생성된 학습된 모델을 읽고 실행할 수 있습니다. 일반 물체 인식의 고속 모델로서 YOLOv3가 있습니다만, 이것도 readNetFromDarknet 함수로 읽어들여 추론을 실시할 수 있습니다. main.cpp 추론 결과는 히트맵이므로 여기에서 필요한 정보를 추출합니다. 이 부분은... YOLOv3OpenCVDNN 신경 네트워크에 대한 초파라미터 최적화 방법 신경 네트워크의 성능은 입력 데이터와 상술한 파이프 파라미터에 의존하기 때문에 후자는 상응하는 시험 오류가 필요하다고 생각한다.이번에 우리는 다음과 같은 네트워크 구성을 통해 초파라미터(이번은 학습률)를 조정하여 학습 횟수와 오차를 개선할 것이다. 이 6장은 신경 네트워크의 구조와 도출 방법을 상세하게 설명했다.샘플 도 실렸지만 과 같이 책에 기재된 입력 데이터로 실행하면 수렴되지 않는다.하... DeepLearninghyperparameterDNNNeuralNetwork
Python,AI 관련 영어 독해력을 올린다(의미를 반대로 느끼면 마음이 부러지기 때문에...주의 예:however,···) 지금 생, 영어가 몸에 붙을지 어떨지는, 매우, 미묘하지만. 더 이상의 영어 능력의 저하는 피하고 싶다! ⇒ 약간의 저항으로 기사를 쓴다. (올바른 대답은 다독!! 아마) 여기에서는 영어가 반대의 의미로 읽고 읽는 마음을 잃는 경우가 많기 때문에, 그렇게 되지 않는 유의점을 정리한다(아직, 1건입니다만...) 아래의 책에서 파이썬에서 private에 대한 설명에서 Python Pocket R... 파이썬사랑DeepLearning영어DNN Jetson Nano 성능 정보 Jetson Nano는 전력값으로서 5(watts)라든지 작은 숫자가 나타나 있다. NVIDIA 사이트에서 정보를 데리러. 출처: At just 70 x 45 mm Jetson Nano delivers 472 GFLOPs for running modern AI algorithms fast. high-performance computing at just 5 to 10 watts. NVIDIA ... JetsonNanoNVIDIACNNDNNGPU 심층 학습 관련으로 재미 있다고 생각한 자료 N선(N=9) 이해가 잘못되어 있다(잘못하고 있는 것을 깨닫지 못하고 있는 것이지만) 곳이나, 이해하기 어려운 곳이라든지 많이 있어, 가끔 우연히 관심사를 조금 가려서 자료를 만날 수 있다. 자료 1 “심층 학습의 범화에 관한 수리적 연구의 진전” 한층 더 도시되어 있는 것이 재미 있었다. 심층 학습의 설명성 등으로, 가시화를 시도하는 예가 있지만, 이 자료는, 1층 1층 나타나고 있으므로, 참고가 되는 ... CNNDNNDeepLearning 활성화 함수 Mish: Self Regularized Non-Monotonic Activation Function을 시도했습니다. 짚에 갈고 싶은 생각으로,,, 활성화 함수 Mish를 시험해 보았다. (실제는, 좀 더 편하게,,,, 하지만, 뭔가 훌륭한 것 없을까...라고 하는 생각에서.) Mish는 다음과 같은 형태의 활성화 함수입니다. 출처 : 위의 github 의 코드를 사용했습니다. 구체적으로는 cifar-10-resnext-50-mish.ipynb 의 코드를 이동했습니다. 주피터 노트를 사용하는 방법을 모르기 ... mishCNNReLUDeepLearningDNN 심층 학습과 같은 Python (keras) 오류 "TypeError : Unexpected keyword argument passed to optimizer : learning_rate"에 대한 조치 심층 학습으로, 확실한 github로부터 얻은 코드를 실행해도, 에러가 나오는 경우가 있다. 여기서, keras의 이하의 에러에 대한 대처 방법을 설명한다. 결론부터 먼저 쓰면, keras의 버전을 upgrade하면 해결한다. 또한, keras의 버전이 너무 새롭고 오류가 발생하는 경우의 또 다른 경우이므로, 항상 새롭게 하는 것이 만능적인 해가 아니다. 에러의 내용은, 이하. 오류에 대한 ... Keras파이썬CNNlearnig_rateDNN keras 배우기 ( model = Model(inputs=inputs, outputs=predictions) ) keras 사이트의 다음 코드에서, Model(inputs=inputs, outputs=predictions) 와 같은 in과 out의 정의로, 왜, 복수의 레이어를 가지는 model이 구성할 수 있을지 몰랐기 때문에 조사했다. 이하 근처에서, 딱딱 접속하고 있는 것 같다. \site-packages\keras\engine\network.py 네트워크 구조를 어떻게든하는 코드에 익숙하지 않기... Keras파이썬CNNtensoflowsDNN OpenVINO를 사용하여 WSL 속도 확인 OpenVINO를 사용하여 WSL의 속도를 확인합니다. 그다지 좋은 속도 검증의 소재가 생각나지 않기 때문에, OpenVINO의 데모를 사용했습니다. PC: ideapad 320S CPU: Intel Core i3-7100U CPU @ 2.40GHz OS:Windows10 버젼 1803(OS 빌드 17134.829) WSL (Windows Subsystem for Linux) : 위의 Win... CNNOpenVINOWSLDNN 문헌 『Machine learning for embedded deep dive』 읽기 표제 문헌 Machine learning for embedded deep dive Presented By Andy Luo Sr. Product Marketing Manager XILINX DEVELOPER FORUM 사이트 에서 액세스 (다운로드) 할 수 있습니다. 다른 기사에도 비슷한 것을 썼지만, 딥 러닝 모델의 처리량을 알고 싶을 수 있습니다. 처리량으로서는, G-Ops 등으로 나타내어... FPGAxilinxCNNGOPDNN 컨벌루션 신경망(CNN)에 대한 설명이 너무 부담스럽지 않습니까? (1층째 정도밖에 성공하지 않은 것은?) 컨벌루션 신경망의 설명을 하고 있는 사이트가 많이 있다. 설명의 방법으로서 CNN의 층별 역할을 설명하는 방법이 취해지고 있는 경우가 자주 있다. 다양한 해설이 있지만, 한층 눈 정도의 설명(엣지등을 추출하고 있는 등)은, 순조롭지만, 그 이후의 설명이 약간 비약이 있다고 느낀다. 아래의 「[C]더욱 이쪽의 그림」의 항에서 인용하고 있는 내용, 레이어 세 번째 레이어 다섯 번째 레이어 별로 ... ConvolutionalNeuralNetworksCNNconvolutionDeepLearningDNN 자료『JETSON AGX XAVIER AND THE NEW ERA OF AUTONOMOUS MACHINE』 읽기 자료『JETSON AGX XAVIER AND THE NEW ERA OF AUTONOMOUS MACHINE』을 읽는다. 자료는 다음과 같습니다. 이 기사의 첫 번째 목적은 위의 문서가 DNN 모델 당 처리량 (GOPS)을 설명하기 때문에 그 양을 참조하는 것입니다. GOP(Giga Operations) GOPS(Giga Operations per Second) 인용 페이지: VISION NET... NVIDIACNNJetsonXavierDNN 신경망 활성화 함수 Sigmoid와 ReLU의 관계 신경망의 활성화 함수에는 Sigmoid 함수와 ReLU 함수가 있다. 개인적으로는, 그 2개의 관계를 오랫동안 착각하고 있었으므로 간단하게 그 내용을 나타낸다. Sigmoid 함수 ReLU 함수 위의 함수의 내용을 보면, Sigmoid 함수 쪽이 고도의, 일반적인 의미로, 레벨이 높은 함수로 보인다. 개인적으로는, Sigmoid 함수의 exp() 포함한 계산의 처리 시간을 단축하기 위해서, ... 시그모이드CNNReLUNeuralNetworkDNN 문헌 『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』을 읽는다. Kaiyuan Guo, Lingzhi Sui, Jiantao Qiu, Song Yao, Song Han, Yu Wang, Huazhong Yang1. From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration. 2016 IEEE Hot Chips 28 Symposium (HCS) 이 문헌은 ... FPGAxilinxCNNGOPSDNN 문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다. Alfredo Canziani & Eugenio Culurciello, Adam Paszke. AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS. arXiv : 1605.07678v4. 이 문헌은 이하에 공개된다. 딥 러닝 모델의 처리량을 알고 싶을 수 있습니다. 처리량으로서는, G-Ops 등으로 나타내어지고 있는 것이... Network-modelTOPSCNNGOPSDNN 물리적 필기 문자 인식 평상시는 음성 처리와 키 배열과 Vim을 만지르고 있는 대학이 1회생입니다. 최초의 Qiita에의 투고라고 하는 것으로, 이번은 제가 좋아하는 키보드와 기계 학습에 관한 기사입니다. 2018/04/01, 만우절에 Google이 다음 동영상을 공개했습니다. 당시 고등학교 3학년이었던 저는 이것에 충격을 받았는데, 지식과 경험이 얕았기 때문에 구현을 포기했습니다. 대학생이 된 지금이라면 할 수 ... KerasPython3TensorFlowDNN기계 학습 Google Lens는 어떤 기술로 만들어졌나요? 구글 그래서 Tensorflow? GoogLeNet? Google Lens는, 찍은 것이 무엇인가를 가르쳐 준다. 밑그림(인용)의 경우, 찍은 식물이 「츠바키」라고 Google Lens가 가르쳐 준다. , 하얀 점 같은 것이 많이 있다. 자, 이것(Google Lens)은, 어떤 기술로 되어 있는 것일까? 기업 비밀이라고 할까, 경쟁사도 있기 때문에, Google이 적극적으로는, 정보를 공개하고 있지 않다고 생각한다. 정보가 공개되면 난이도에 ... TensorFlowlensgoogleDNNGoogLeNet 심층 학습의 일반 물체 인식을 구현한 FPGA가 민생품에 채용되었다 - Lovot라는 가정용 로봇 - 먼저 기사를 썼다. 기사도 썼다. 최근(2019년 12월) 일반물체인식을 구현한 FPGA가 민생품에 채용된 기사를 보았다. 그 로봇의 이름은 에서 심층 학습에서 FPGA를 사용하고 있다고 말했다. 도쿄 근교에 거주하는 경우, 아래의 체험회에 신청하여 그들이 어떻게 사용되고 있는지를 알 수 있다. 추가: 아래의 점포에서 실제로 만날 수 있습니다. 나고야 타카시마야 로보틱스 스튜디오 참고 You... FPGAxilinxDeepLearning심층 학습DNN [참고] 라즈파이와 Pi 카메라로 번거 로움없이 물체 인식 RasPi3B+로 1fps 정도 ※ Youtube에서 "스크램블 교차로"에서 검색. 번거 로움없이 하야리 물체를 인식하고 싶습니다. "시간을 들이지 않고"... OpenCV 3.3 이상에서 사용할 수 있습니다 RaspberryPi2/3용 빌드됨 사용 관련: 학습된 모델 사용 20가지 물체 조금 시험하고 싶을 뿐인데, 움직일 때까지의 환경을 시작하는 것이, 면도,라고 하는 분에게. Raspbe... RaspberryPiOpenCVMobileNetSSDDNN이미지 인식 DNN 학습에 관한 기술 @ 제로 1 가중치의 초기 값에 따라 NN 학습의 성공 여부를 구분할 수 있습니다. 이상 : 가중치를 줄이고 그 분포도 가능한 한 균등하게 만듭니다. → 활성화의 편향이 작아져 표현력이 향상 → 결과적으로 과학습을 억제하고 일반화 성능이 향상된다 "활성화"= "활성화 함수 후의 출력 데이터" 예를 들어, Sigmoid 함수 활성화는 활성화 함수 이후의 값이다. 이 값이 0 또는 1로 편향된 경우 그 기울... BatchNormalization활성화 함수심층 학습DNN기계 학습 OpenCV의 dnn::readNetFromDarknet에서 YOLOv3 사용 OpenCV 4.1.2에서는 DNN 모듈에 CUDA 옵션이 추가되었습니다. 이 DNN 모듈은 다양한 프레임워크에서 생성된 학습된 모델을 읽고 실행할 수 있습니다. 일반 물체 인식의 고속 모델로서 YOLOv3가 있습니다만, 이것도 readNetFromDarknet 함수로 읽어들여 추론을 실시할 수 있습니다. main.cpp 추론 결과는 히트맵이므로 여기에서 필요한 정보를 추출합니다. 이 부분은... YOLOv3OpenCVDNN 신경 네트워크에 대한 초파라미터 최적화 방법 신경 네트워크의 성능은 입력 데이터와 상술한 파이프 파라미터에 의존하기 때문에 후자는 상응하는 시험 오류가 필요하다고 생각한다.이번에 우리는 다음과 같은 네트워크 구성을 통해 초파라미터(이번은 학습률)를 조정하여 학습 횟수와 오차를 개선할 것이다. 이 6장은 신경 네트워크의 구조와 도출 방법을 상세하게 설명했다.샘플 도 실렸지만 과 같이 책에 기재된 입력 데이터로 실행하면 수렴되지 않는다.하... DeepLearninghyperparameterDNNNeuralNetwork