딥 러닝 원리
Primero: 인공 신경원
La arquitectura de las redes neuronales biológicas fueron La inspiración para descubrir como construir una maquina inteligente.Estaes la lógica detras de redes neuronales artificiales(인공신경 네트워크, o ANN en ingles): una RNA es un modelo de aprendizaje autom ático inspirado por las redes de neuronas biologicas que encuentran en nuestro cerebro.
신경계 컴퓨터 프로그램
El neurofisiologo Warren McCullcoh y El matemático Walter Pitts propusieron un modelo muy simple de una neurona biologica,que más tarde se comenzóa conocer como una neurona artificial:tiene una o más entradas binarias(0-1)y una salida binaria.La neurona artificial activa La salida cuando más de un cierto número de sus entradas esta activa.
El 감지기
El perceptron es una de las arquitecturas de RNA mas simples,inventada en 1957 por Frank Rosenblatt.Est á basada en una neurona artificial levement differente llamada unidad l ógica de umbral(한계값 논리 단위, o TLU en ingles).Las entradas y salidas son números(en lugar de valores binarios 0-1),y cada conexión de entrada esta asociada a un peso.
No podía escribir ecuaciones en LaTeX y por esa razón todas las ecuaciones estarán en formato Gist.
No podía escribir ecuaciones en LaTeX y por esa razón todas las ecuaciones estarán en formato Gist.
Una sola ULU puede ser usada para Una clasificación linear binaria simple.계산 결과는 불확정 요소를 초과하였고,salida는clasePositive입니다.De otra manera la salida es De clase negativa(al igual que una regresión logística o un clasificador SVM lineal)
Esta ecuación hace posible calcular de manera efficient las salidas de una capa de neuronas artificiales para varios casos a la vez:
Asi que,?cómo se entrena a un perceptron?Cuando son entrenados toman en cuenta el error producido por la red Cuando realization una predicción;la regla de aprendizaje del perceptron informa conexiones que ayudan a reducir el error.Más specificiate,el perceptron se alimenta una instancia de entrenamiento a la vez,y para cada instancia realizauna predicción.para cada neurona de salida que produjo una predicción erronea,refuerza los pesos de conexión de las entradas que habrían contribuido a la predicción correcta
Ecuacion de la regla de aprendizaje de un perceptron(con pesos actualizados):
El limite de decisionón de cada neurona de salida es lineal,por lo tanto los perceptrones son acabilites de aprender customers complejos(como un clasificador de regresión logística).De todas maneras,si las instancias De entrenamiento son separables linealmente,Rosenblatt demostróque este algoritmo puede Converter a una solución.Esto es llamado elteorema De convergencia del perceptron
Scikit Learn provee una clasePerceptron
que implementa una red de un solo ULU:
import numpy as np
from sklearn.datasets import load_iris
from sklearn.linear_model import Perceptron
iris = load_iris()
X = iris.data[:, (2, 3)]
y = (iris.target == 0).astype(np.int)
per_clf = Perceptron()
per_clf.fit(X, y)
y_pred = per_clf.predict([[2, 0.5]])
Quizaste hayas dado cuenta que el algoritmo de aprendizaje del perceptron se parece mucho a un descenso degradiente estocástico(무작위 사다리 하락).De hecho, la clasePerceptron
De Scikit Learn es는 usar unSGDClassifier
con los siguientes hiperpará metros: loss='perceptron'
, learning_rate='constant'
, eta=0.1
, (la tasa De aprendizaje), ypenalty=None
(sin Regulationzación)
10개의 상반된 분류 규칙, 감지기는 데이터가 없고 결과는 분류 확률이 없다.나는 수 루그, 나는 바사도, 나는 두로다.Esta es una de las razones para preferir regresión logística sobre un perceptron
En su monograf í a de 1969 감지기, Marvin Minsky Seymour Papert subrayaron un úmero de serias debilidades En los perceptrones-En specific el hecho de que son acabilities de resolver algunos problems as 자질구레.Esto es verdad en cualquier otro modelo de clasificación lineal(como los de regresión logística)
결과 algunas de las limitaciones de los perceptrones pueden ser eliminadas al apilar는 감지기를 배로 증가시킵니다.La RNA 합성물esllamada(MLP)
Hace unas semanas,escribi un(en ingles)sobre como crear un Perceptron multicapa con PySpark.Les dejo el repositorio de GitHub con una Introductción al-aprendizaje profundo y un Jupyter notebook donde probamos el algoritmo:
Conclusión
Eso es todo por el articulo de hoy,muchas gracias por llegar hasta acá
Reference
이 문제에 관하여(딥 러닝 원리), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://dev.to/ruizleandro/principios-basicos-sobre-deep-learning-2f8a텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)