딥 러닝 원리

Primero: 인공 신경원


La arquitectura de las redes neuronales biológicas fueron La inspiración para descubrir como construir una maquina inteligente.Estaes la lógica detras de redes neuronales artificiales(인공신경 네트워크, o ANN en ingles): una RNA es un modelo de aprendizaje autom ático inspirado por las redes de neuronas biologicas que encuentran en nuestro cerebro.

신경계 컴퓨터 프로그램


El neurofisiologo Warren McCullcoh y El matemático Walter Pitts propusieron un modelo muy simple de una neurona biologica,que más tarde se comenzóa conocer como una neurona artificial:tiene una o más entradas binarias(0-1)y una salida binaria.La neurona artificial activa La salida cuando más de un cierto número de sus entradas esta activa.

El 감지기


El perceptron es una de las arquitecturas de RNA mas simples,inventada en 1957 por Frank Rosenblatt.Est á basada en una neurona artificial levement differente llamada unidad l ógica de umbral(한계값 논리 단위, o TLU en ingles).Las entradas y salidas son números(en lugar de valores binarios 0-1),y cada conexión de entrada esta asociada a un peso.

No podía escribir ecuaciones en LaTeX y por esa razón todas las ecuaciones estarán en formato Gist.



Una sola ULU puede ser usada para Una clasificación linear binaria simple.계산 결과는 불확정 요소를 초과하였고,salida는clasePositive입니다.De otra manera la salida es De clase negativa(al igual que una regresión logística o un clasificador SVM lineal)


유엔 감지기 esta compuesto basicamente por una sola capa de ULUS, con una ULU conectada a a cada entrada.Cuando todas las neuronas en una capa estan conectadas a cada neurona de la capa front(por ejempo,las neuronas de entrada),la capa es llamada unacapa completamente conectada,o unacapa densa.Ademas,una caracteristica de sesgo adicional es generalmente añadida(x_0=1):tipicamente es representada usando un tipo special de neurona llamada,que da como resultado 1 todo el tiempo.유엔 감지기 con dos entradas y tres salidas puede clasificar instancias simultanemente en tres binarias differentes, lo que lo convierte en clasificador de multiples salidas


Esta ecuación hace posible calcular de manera efficient las salidas de una capa de neuronas artificiales para varios casos a la vez:





Asi que,?cómo se entrena a un perceptron?Cuando son entrenados toman en cuenta el error producido por la red Cuando realization una predicción;la regla de aprendizaje del perceptron informa conexiones que ayudan a reducir el error.Más specificiate,el perceptron se alimenta una instancia de entrenamiento a la vez,y para cada instancia realizauna predicción.para cada neurona de salida que produjo una predicción erronea,refuerza los pesos de conexión de las entradas que habrían contribuido a la predicción correcta


Ecuacion de la regla de aprendizaje de un perceptron(con pesos actualizados):





El limite de decisionón de cada neurona de salida es lineal,por lo tanto los perceptrones son acabilites de aprender customers complejos(como un clasificador de regresión logística).De todas maneras,si las instancias De entrenamiento son separables linealmente,Rosenblatt demostróque este algoritmo puede Converter a una solución.Esto es llamado elteorema De convergencia del perceptron


Scikit Learn provee una clasePerceptronque implementa una red de un solo ULU:



import numpy as np
from sklearn.datasets import load_iris
from sklearn.linear_model import Perceptron

iris = load_iris()
X = iris.data[:, (2, 3)]
y = (iris.target == 0).astype(np.int)

per_clf = Perceptron()
per_clf.fit(X, y)

y_pred = per_clf.predict([[2, 0.5]])

Quizaste hayas dado cuenta que el algoritmo de aprendizaje del perceptron se parece mucho a un descenso degradiente estocástico(무작위 사다리 하락).De hecho, la clasePerceptron De Scikit Learn es는 usar unSGDClassifiercon los siguientes hiperpará metros: loss='perceptron', learning_rate='constant', eta=0.1, (la tasa De aprendizaje), ypenalty=None(sin Regulationzación)


10개의 상반된 분류 규칙, 감지기는 데이터가 없고 결과는 분류 확률이 없다.나는 수 루그, 나는 바사도, 나는 두로다.Esta es una de las razones para preferir regresión logística sobre un perceptron


En su monograf í a de 1969 감지기, Marvin Minsky Seymour Papert subrayaron un úmero de serias debilidades En los perceptrones-En specific el hecho de que son acabilities de resolver algunos problems as 자질구레.Esto es verdad en cualquier otro modelo de clasificación lineal(como los de regresión logística)


결과 algunas de las limitaciones de los perceptrones pueden ser eliminadas al apilar는 감지기를 배로 증가시킵니다.La RNA 합성물esllamada(MLP)


Hace unas semanas,escribi un(en ingles)sobre como crear un Perceptron multicapa con PySpark.Les dejo el repositorio de GitHub con una Introductción al-aprendizaje profundo y un Jupyter notebook donde probamos el algoritmo:



Link a GitHub


Conclusión


Eso es todo por el articulo de hoy,muchas gracias por llegar hasta acá

좋은 웹페이지 즐겨찾기