Main Content

trainbr

베이즈 정규화 역전파

설명

net.trainFcn = 'trainbr'은 신경망의 trainFcn 속성을 설정합니다.

예제

[trainedNet,tr] = train(net,...)trainbr을 사용하여 신경망을 훈련시킵니다.

trainbr은 Levenberg-Marquardt 최적화 알고리즘에 따라 가중치와 편향 값을 업데이트하는 신경망 훈련 함수입니다. 이 함수는 제곱 오차와 가중치의 결합을 최소화한 다음 일반화가 잘 되는 신경망을 생성하는 올바른 결합을 결정합니다. 이 과정을 베이즈 정규화라고 부릅니다.

아래에 디폴트 값과 함께 표시된 다음의 trainbr 훈련 파라미터에 따라 훈련이 이루어집니다.

  • net.trainParam.epochs — 훈련할 최대 Epoch 횟수. 디폴트 값은 1000입니다.

  • net.trainParam.goal — 성능 목표. 디폴트 값은 0입니다.

  • net.trainParam.mu — Marquardt 조정 파라미터. 디폴트 값은 0.005입니다.

  • net.trainParam.mu_decmu의 감소 인자. 디폴트 값은 0.1입니다.

  • net.trainParam.mu_incmu의 증가 인자. 디폴트 값은 10입니다.

  • net.trainParam.mu_max — mu의 최댓값. 디폴트 값은 1e10입니다.

  • net.trainParam.max_fail — 최대 검증 실패 횟수. 디폴트 값은 0입니다.

  • net.trainParam.min_grad — 최소 성능 기울기. 디폴트 값은 1e-7입니다.

  • net.trainParam.show — 다음 표시까지 진행할 Epoch 횟수(표시하지 않으려면 NaN). 디폴트 값은 25입니다.

  • net.trainParam.showCommandLine — 명령줄 출력값 생성. 디폴트 값은 false입니다.

  • net.trainParam.showWindow — 훈련 GUI 표시. 디폴트 값은 true입니다.

  • net.trainParam.time — 훈련을 진행할 최대 시간(단위: 초). 디폴트 값은 inf입니다.

검증 중지 파라미터는 최적의 오차 및 가중치 결합을 찾을 때까지 훈련이 진행되도록 기본적으로 비활성화되어 있습니다(max_fail = 0). 그러나 max_fail을 6 또는 그 밖의 순양수 값으로 설정하여 검증을 활성화하면 비교적 짧은 훈련 시간에도 어느 정도의 가중치/편향 최소화를 달성할 수 있습니다.

예제

모두 축소

이 예제에서는 신경망을 사용하여 입력값 p와 목표값 t로 구성된 문제를 푸는 방법을 보여줍니다. 이 문제에서는 잡음이 있는 사인파를 피팅해야 합니다.

p = [-1:.05:1];
t = sin(2*pi*p)+0.1*randn(size(p));

2개의 뉴런을 갖는 은닉 계층이 1개 있는 피드포워드 신경망을 만듭니다.

net = feedforwardnet(2,'trainbr');

신경망을 훈련시키고 테스트합니다.

net = train(net,p,t);
a = net(p)

입력 인수

모두 축소

입력 신경망으로, network 객체로 지정됩니다. network 객체를 만들려면 feedforwardnet 또는 narxnet 등을 사용하십시오.

출력 인수

모두 축소

훈련된 신경망으로, network 객체로 반환됩니다.

훈련 기록(epochperf)으로, 신경망 훈련 함수(net.NET.trainFcn)에 따라 필드가 결정되는 구조체로 반환됩니다. 다음과 같은 필드를 포함할 수 있습니다.

  • 훈련, 데이터 분할, 성능 함수와 파라미터

  • 훈련, 검증, 테스트 세트의 데이터 분할 인덱스

  • 훈련, 검증, 테스트 세트의 데이터 분할 마스크

  • Epoch 횟수(num_epochs) 및 최적의 Epoch(best_epoch).

  • 훈련 상태 이름 목록(states).

  • 훈련 전체에 걸쳐 기록된 각 상태 이름에 대한 필드

  • 최적의 신경망의 성능(best_perf, best_vperf, best_tperf)

제한 사항

이 함수는 성능을 평균제곱오차 또는 오차제곱합이라고 가정하는 야코비 행렬을 계산에 사용합니다. 따라서 이 함수를 사용하여 훈련된 신경망은 mse 또는 sse 성능 함수를 사용해야 합니다.

세부 정보

모두 축소

신경망 사용

feedforwardnet 또는 cascadeforwardnet으로 trainbr를 사용하는 표준 신경망을 만들 수 있습니다. trainbr를 사용하여 훈련할 사용자 지정 신경망을 준비하려면 다음을 수행하십시오.

  1. NET.trainFcn'trainbr'로 설정합니다. 이렇게 하면 NET.trainParamtrainbr의 디폴트 파라미터로 설정됩니다.

  2. NET.trainParam 속성을 원하는 값으로 설정합니다.

두 경우 모두, 그 결과 생성되는 신경망에 train을 호출하면 이 신경망을 trainbr를 사용하여 훈련시킵니다. 예제는 feedforwardnetcascadeforwardnet을 참조하십시오.

알고리즘

trainbr은 신경망의 가중치, 순 입력값, 전달 함수가 도함수를 갖는 한 어떤 신경망도 훈련시킬 수 있습니다.

베이즈 정규화는 제곱 오차와 가중치의 선형 결합을 최소화합니다. 또한, 훈련을 마쳤을 때 결과로 나오는 신경망이 양질의 일반화 특성을 갖도록 선형 결합을 수정합니다. 베이즈 정규화에 대한 자세한 내용은 MacKay(Neural Computation, Vol. 4, No. 3, 1992, pp. 415 to 447)와 Foresee and Hagan(Proceedings of the International Joint Conference on Neural Networks, June, 1997)을 참조하십시오.

이 베이즈 정규화는 Levenberg-Marquardt 알고리즘 내에서 이루어집니다. 역전파는 가중치와 편향 변수 X에 대한 성능 perf의 야코비 행렬 jX을 계산하기 위해 사용됩니다. 각 변수는 Levenberg-Marquardt 알고리즘에 따라 조정됩니다.

jj = jX * jX
je = jX * E
dX = -(jj+I*mu) \ je

여기서 E는 모든 오차이고 I는 단위 행렬입니다.

위에서 보여진 변경의 결과로 성능 값이 감소될 때까지 조정 값 mumu_inc만큼 증가합니다. 그런 다음 변경이 신경망에 적용되고, mumu_dec만큼 감소됩니다.

다음 조건 중 하나라도 충족되면 훈련이 중지됩니다.

  • epochs(반복)의 최대 횟수에 도달함.

  • time의 최대 값이 초과됨.

  • 성능이 goal로 최소화됨.

  • 성능 기울기가 min_grad 아래로 떨어짐.

  • mumu_max를 초과함.

참고 문헌

[1] MacKay, David J. C. "Bayesian interpolation." Neural computation. Vol. 4, No. 3, 1992, pp. 415–447.

[2] Foresee, F. Dan, and Martin T. Hagan. "Gauss-Newton approximation to Bayesian learning." Proceedings of the International Joint Conference on Neural Networks, June, 1997.

버전 내역

R2006a 이전에 개발됨