Main Content

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

fitrsvm

서포트 벡터 머신 회귀 모델 피팅

설명

fitrsvm은 저차원에서 중간 차원까지의 예측 변수 데이터 세트에 대해 서포트 벡터 머신(SVM) 회귀 모델을 훈련시키거나 교차 검증합니다. fitrsvm은 커널 함수를 사용하여 예측 변수 데이터를 매핑하는 것을 지원합니다. 또한 SMO, ISDA 또는 목적 함수 최소화를 위한 2차 계획법을 사용하는 L1 소프트 마진 최소화를 지원합니다.

고차원 데이터 세트, 즉 많은 예측 변수를 포함하는 데이터 세트에 대해 선형 SVM 회귀 모델을 훈련시키려면 fitrlinear를 대신 사용하십시오.

이진 분류를 위해 SVM 모델을 훈련시키려면 저차원에서 중간 차원까지의 예측 변수 데이터 세트의 경우 fitcsvm을 참조하고 고차원 데이터 세트의 경우 fitclinear를 참조하십시오.

예제

Mdl = fitrsvm(Tbl,ResponseVarName)은 테이블 Tbl에 포함된 예측 변수 값과 Tbl.ResponseVarName에 포함된 응답 변수 값을 사용하여 훈련된 전체 서포트 벡터 머신(SVM) 회귀 모델 Mdl을 반환합니다.

Mdl = fitrsvm(Tbl,formula)는 테이블 Tbl에 포함된 예측 변수 값을 사용하여 훈련된 전체 SVM 회귀 모델을 반환합니다. formulaMdl을 피팅하는 데 사용된 Tbl에 포함된 응답 변수와 예측 변수의 부분 집합에 대한 설명 모델입니다.

Mdl = fitrsvm(Tbl,Y)는 테이블 Tbl에 포함된 예측 변수 값과 벡터 Y에 포함된 응답 변수 값을 사용하여 훈련된 전체 SVM 회귀 모델을 반환합니다.

Mdl = fitrsvm(X,Y)는 행렬 X에 포함된 예측 변수 값과 벡터 Y에 포함된 응답 변수 값을 사용하여 훈련된 전체 SVM 회귀 모델을 반환합니다.

예제

Mdl = fitrsvm(___,Name,Value)는 위에 열거된 구문에 하나 이상의 이름-값 쌍의 인수로 지정되는 추가 옵션을 사용하여 SVM 회귀 모델을 반환합니다. 예를 들어, 커널 함수를 지정하거나 교차 검증된 모델을 훈련시킬 수 있습니다.

예제

모두 축소

행렬에 저장된 표본 데이터를 사용하여 서포트 벡터 머신(SVM) 회귀 모델을 훈련시킵니다.

carsmall 데이터 세트를 불러옵니다.

load carsmall
rng 'default'  % For reproducibility

HorsepowerWeight를 예측 변수(X)로 지정하고 MPG를 응답 변수(Y)로 지정합니다.

X = [Horsepower,Weight];
Y = MPG;

디폴트 SVM 회귀 모델을 훈련시킵니다.

Mdl = fitrsvm(X,Y)
Mdl = 
  RegressionSVM
             ResponseName: 'Y'
    CategoricalPredictors: []
        ResponseTransform: 'none'
                    Alpha: [75x1 double]
                     Bias: 57.3958
         KernelParameters: [1x1 struct]
          NumObservations: 94
           BoxConstraints: [94x1 double]
          ConvergenceInfo: [1x1 struct]
          IsSupportVector: [94x1 logical]
                   Solver: 'SMO'


Mdl은 훈련된 RegressionSVM 모델입니다.

모델이 수렴하는지 확인합니다.

Mdl.ConvergenceInfo.Converged
ans = logical
   0

0은 모델이 수렴하지 않았음을 나타냅니다.

표준화된 데이터를 사용하여 모델을 다시 훈련시킵니다.

MdlStd = fitrsvm(X,Y,'Standardize',true)
MdlStd = 
  RegressionSVM
             ResponseName: 'Y'
    CategoricalPredictors: []
        ResponseTransform: 'none'
                    Alpha: [77x1 double]
                     Bias: 22.9131
         KernelParameters: [1x1 struct]
                       Mu: [109.3441 2.9625e+03]
                    Sigma: [45.3545 805.9668]
          NumObservations: 94
           BoxConstraints: [94x1 double]
          ConvergenceInfo: [1x1 struct]
          IsSupportVector: [94x1 logical]
                   Solver: 'SMO'


모델이 수렴하는지 확인합니다.

MdlStd.ConvergenceInfo.Converged
ans = logical
   1

1은 모델이 수렴했음을 나타냅니다.

새 모델에 대해 재대입(표본내) 평균 제곱 오차를 계산합니다.

lStd = resubLoss(MdlStd)
lStd = 16.8551

UCI Machine Learning Repository의 전복 데이터를 사용하여 서포트 벡터 머신 회귀 모델을 훈련시킵니다.

데이터를 다운로드한 후 'abalone.csv'라는 이름으로 현재 폴더에 저장합니다.

url = 'https://archive.ics.uci.edu/ml/machine-learning-databases/abalone/abalone.data';
websave('abalone.csv',url);

데이터를 테이블에 읽어 들입니다. 변수 이름을 지정합니다.

varnames = {'Sex'; 'Length'; 'Diameter'; 'Height'; 'Whole_weight';...
    'Shucked_weight'; 'Viscera_weight'; 'Shell_weight'; 'Rings'};
Tbl = readtable('abalone.csv','Filetype','text','ReadVariableNames',false);
Tbl.Properties.VariableNames = varnames;

표본 데이터는 4177개의 관측값을 포함합니다. 모든 예측 변수는 Sex를 제외하고 모두 연속형 변수입니다. Sex는 가능한 값으로 'M'(수컷), 'F'(암컷), 'I'(유생)를 갖는 범주형 변수입니다. 전복 껍질에 새겨진 원형 무늬의 개수(Rings에 저장되어 있음)를 예측하고 물리적 측정값을 사용하여 나이를 확인하는 것이 목적입니다.

자동 커널 스케일을 갖는 가우스 커널 함수를 사용하여 SVM 회귀 모델을 훈련시킵니다. 데이터를 표준화합니다.

rng default  % For reproducibility
Mdl = fitrsvm(Tbl,'Rings','KernelFunction','gaussian','KernelScale','auto',...
    'Standardize',true)
Mdl = 
  RegressionSVM
           PredictorNames: {'Sex'  'Length'  'Diameter'  'Height'  'Whole_weight'  'Shucked_weight'  'Viscera_weight'  'Shell_weight'}
             ResponseName: 'Rings'
    CategoricalPredictors: 1
        ResponseTransform: 'none'
                    Alpha: [3635×1 double]
                     Bias: 10.8144
         KernelParameters: [1×1 struct]
                       Mu: [0 0 0 0.5240 0.4079 0.1395 0.8287 0.3594 0.1806 0.2388]
                    Sigma: [1 1 1 0.1201 0.0992 0.0418 0.4904 0.2220 0.1096 0.1392]
          NumObservations: 4177
           BoxConstraints: [4177×1 double]
          ConvergenceInfo: [1×1 struct]
          IsSupportVector: [4177×1 logical]
                   Solver: 'SMO'


  Properties, Methods

명령 창에 Mdl이 훈련된 RegressionSVM 모델로 표시되고 속성 목록이 표시됩니다.

점 표기법을 사용하여 Mdl의 속성을 표시합니다. 예를 들어, 모델이 수렴했는지 여부와 모델이 몇 회의 반복을 완료했는지를 확인합니다.

conv = Mdl.ConvergenceInfo.Converged
conv = logical
   1

iter = Mdl.NumIterations
iter = 2759

반환된 결과는 모델이 2759회 반복 후에 수렴했음을 나타냅니다.

carsmall 데이터 세트를 불러옵니다.

load carsmall
rng 'default'  % For reproducibility

HorsepowerWeight를 예측 변수(X)로 지정하고 MPG를 응답 변수(Y)로 지정합니다.

X = [Horsepower Weight];
Y = MPG;

5겹 교차 검증을 사용하여 2개의 SVM 회귀 모델을 교차 검증합니다. 두 모델에 대해 예측 변수를 표준화하도록 지정합니다. 한 모델은 디폴트 선형 커널을 사용하여 훈련하도록 지정하고, 다른 한 모델은 가우스 커널을 사용하도록 지정합니다.

MdlLin = fitrsvm(X,Y,'Standardize',true,'KFold',5)
MdlLin = 
  RegressionPartitionedSVM
    CrossValidatedModel: 'SVM'
         PredictorNames: {'x1'  'x2'}
           ResponseName: 'Y'
        NumObservations: 94
                  KFold: 5
              Partition: [1x1 cvpartition]
      ResponseTransform: 'none'


MdlGau = fitrsvm(X,Y,'Standardize',true,'KFold',5,'KernelFunction','gaussian')
MdlGau = 
  RegressionPartitionedSVM
    CrossValidatedModel: 'SVM'
         PredictorNames: {'x1'  'x2'}
           ResponseName: 'Y'
        NumObservations: 94
                  KFold: 5
              Partition: [1x1 cvpartition]
      ResponseTransform: 'none'


MdlLin.Trained
ans=5×1 cell array
    {1x1 classreg.learning.regr.CompactRegressionSVM}
    {1x1 classreg.learning.regr.CompactRegressionSVM}
    {1x1 classreg.learning.regr.CompactRegressionSVM}
    {1x1 classreg.learning.regr.CompactRegressionSVM}
    {1x1 classreg.learning.regr.CompactRegressionSVM}

MdlLinMdlGauRegressionPartitionedSVM 교차 검증된 모델입니다. 각 모델의 Trained 속성은 CompactRegressionSVM 모델로 구성된 5×1 셀형 배열입니다. 셀에 포함된 모델은 1겹 관측값을 빼고 4겹 관측값에 대해 훈련한 결과를 저장합니다.

두 모델의 일반화 오차를 비교합니다. 이 경우 일반화 오차는 표본외 평균 제곱 오차입니다.

mseLin = kfoldLoss(MdlLin)
mseLin = 17.2987
mseGau = kfoldLoss(MdlGau)
mseGau = 16.5978

가우스 커널을 사용한 SVM 회귀 모델이 선형 커널을 사용한 모델보다 성능이 낫습니다.

전체 데이터 세트를 fitrsvm으로 전달하여 예측을 수행하는 데 적합한 모델을 만들고, 모델 성능을 더 좋게 만들었던 모든 이름-값 쌍의 인수를 지정합니다. 단, 교차 검증 옵션은 지정하지 않습니다.

MdlGau = fitrsvm(X,Y,'Standardize',true,'KernelFunction','gaussian');

차량 집합의 MPG를 예측하기 위해 차량의 마력 및 중량 측정값을 포함하는 테이블과 Mdlpredict에 전달합니다.

이 예제에서는 fitrsvm을 사용하여 자동으로 하이퍼파라미터를 최적화하는 방법을 보여줍니다. 이 예제에서는 carsmall 데이터를 사용합니다.

carsmall 데이터 세트를 불러옵니다.

load carsmall

HorsepowerWeight를 예측 변수(X)로 지정하고 MPG를 응답 변수(Y)로 지정합니다.

X = [Horsepower Weight];
Y = MPG;

XY의 행을 삭제합니다. 두 배열 모두 누락값을 가집니다.

R = rmmissing([X Y]);
X = R(:,1:end-1);
Y = R(:,end);

자동 하이퍼파라미터 최적화를 사용하여 5겹 교차 검증 손실을 최소화하는 하이퍼파라미터를 구합니다.

재현이 가능하도록 난수 시드값을 설정하고 'expected-improvement-plus' 획득 함수를 사용합니다.

rng default
Mdl = fitrsvm(X,Y,'OptimizeHyperparameters','auto',...
    'HyperparameterOptimizationOptions',struct('AcquisitionFunctionName',...
    'expected-improvement-plus'))
|===================================================================================================================================|
| Iter | Eval   | Objective:  | Objective   | BestSoFar   | BestSoFar   | BoxConstraint|  KernelScale |      Epsilon |  Standardize |
|      | result | log(1+loss) | runtime     | (observed)  | (estim.)    |              |              |              |              |
|===================================================================================================================================|
|    1 | Best   |       2.935 |     0.88014 |       2.935 |       2.935 |        294.5 |        11.95 |       0.4572 |         true |
|    2 | Accept |      3.1124 |     0.10436 |       2.935 |      2.9771 |       0.3265 |       938.31 |      0.26184 |        false |
|    3 | Accept |      11.104 |      7.1905 |       2.935 |      3.0485 |       439.19 |     0.047381 |     0.060061 |        false |
|    4 | Accept |      14.705 |      8.1026 |       2.935 |      2.9355 |    0.0086399 |    0.0027446 |      0.61439 |        false |
|    5 | Accept |      4.1988 |     0.17787 |       2.935 |      3.0066 |        0.123 |        999.3 |          201 |         true |
|    6 | Accept |      3.0084 |     0.27645 |       2.935 |      2.9355 |      0.89057 |    0.0080922 |       8.0144 |         true |
|    7 | Accept |      4.1988 |    0.046786 |       2.935 |      3.5404 |    0.0010016 |      0.62201 |       32.871 |         true |
|    8 | Accept |      4.1418 |    0.040629 |       2.935 |      2.9345 |    0.0037482 |    0.0010004 |       16.616 |         true |
|    9 | Accept |       8.042 |      7.0327 |       2.935 |      2.9354 |       995.25 |    0.0010955 |      0.14275 |         true |
|   10 | Accept |      4.1862 |    0.049807 |       2.935 |      2.9355 |       620.98 |       986.71 |       1.5902 |         true |
|   11 | Best   |      2.9241 |     0.15319 |      2.9241 |       2.926 |       2.1316 |       997.42 |    0.0096788 |        false |
|   12 | Accept |      4.1988 |    0.072313 |      2.9241 |      2.9246 |    0.0010101 |     0.016239 |       147.67 |         true |
|   13 | Accept |      2.9598 |    0.042075 |      2.9241 |      2.9247 |       1.4657 |       1.4793 |      0.38864 |         true |
|   14 | Best   |      2.9088 |    0.092303 |      2.9088 |      2.9121 |       959.16 |       995.08 |      0.54066 |        false |
|   15 | Accept |      4.1988 |     0.21054 |      2.9088 |      2.9102 |       754.18 |       993.03 |       275.59 |        false |
|   16 | Accept |      4.1988 |     0.17718 |      2.9088 |      2.9102 |       16.919 |       0.9408 |       921.29 |         true |
|   17 | Accept |      2.9568 |     0.16424 |      2.9088 |      2.9106 |     0.050235 |     0.039749 |    0.0093077 |         true |
|   18 | Accept |      4.1487 |     0.16062 |      2.9088 |      2.9097 |        5.277 |       46.186 |    0.0095359 |         true |
|   19 | Best   |       2.905 |      0.1067 |       2.905 |       2.875 |      0.27078 |     0.061962 |      0.84063 |         true |
|   20 | Accept |      2.9578 |    0.061698 |       2.905 |      2.8776 |       201.57 |       1.1402 |    0.0094718 |         true |
|===================================================================================================================================|
| Iter | Eval   | Objective:  | Objective   | BestSoFar   | BestSoFar   | BoxConstraint|  KernelScale |      Epsilon |  Standardize |
|      | result | log(1+loss) | runtime     | (observed)  | (estim.)    |              |              |              |              |
|===================================================================================================================================|
|   21 | Accept |      2.9308 |    0.078883 |       2.905 |      2.9026 |        546.6 |       882.55 |    0.0094502 |        false |
|   22 | Accept |      2.9098 |     0.18428 |       2.905 |      2.9032 |       32.703 |       984.05 |      0.12178 |        false |
|   23 | Accept |      4.1988 |      0.1274 |       2.905 |      2.9025 |       958.12 |       89.399 |       893.27 |         true |
|   24 | Accept |      2.9651 |    0.092364 |       2.905 |      2.9021 |      0.62018 |      0.28426 |    0.0093797 |         true |
|   25 | Accept |      4.1989 |    0.051824 |       2.905 |      2.9021 |    0.0010514 |       988.23 |     0.011796 |        false |
|   26 | Accept |      2.9381 |    0.064076 |       2.905 |      2.8933 |       86.303 |       2.3086 |      0.20666 |         true |
|   27 | Accept |       2.962 |    0.078885 |       2.905 |      2.8932 |        915.6 |       7.2222 |    0.0093543 |         true |
|   28 | Accept |      2.9341 |     0.12823 |       2.905 |      2.8946 |      0.13906 |     0.013474 |      0.35647 |         true |
|   29 | Accept |      2.9494 |    0.058686 |       2.905 |      2.9029 |       966.28 |       4.0378 |     0.088829 |         true |
|   30 | Accept |      2.9464 |     0.64551 |       2.905 |       2.903 |       986.98 |       248.46 |      0.11212 |        false |

__________________________________________________________
Optimization completed.
MaxObjectiveEvaluations of 30 reached.
Total function evaluations: 30
Total elapsed time: 43.497 seconds
Total objective function evaluation time: 26.6529

Best observed feasible point:
    BoxConstraint    KernelScale    Epsilon    Standardize
    _____________    ___________    _______    ___________

       0.27078        0.061962      0.84063       true    

Observed objective function value = 2.905
Estimated objective function value = 2.903
Function evaluation time = 0.1067

Best estimated feasible point (according to models):
    BoxConstraint    KernelScale    Epsilon    Standardize
    _____________    ___________    _______    ___________

       0.27078        0.061962      0.84063       true    

Estimated objective function value = 2.903
Estimated function evaluation time = 0.12205

Figure contains an axes object. The axes object with title Min objective vs. Number of function evaluations, xlabel Function evaluations, ylabel Min objective contains 2 objects of type line. These objects represent Min observed objective, Estimated min objective.

Mdl = 
  RegressionSVM
                         ResponseName: 'Y'
                CategoricalPredictors: []
                    ResponseTransform: 'none'
                                Alpha: [81x1 double]
                                 Bias: 22.9779
                     KernelParameters: [1x1 struct]
                                   Mu: [109.3441 2.9625e+03]
                                Sigma: [45.3545 805.9668]
                      NumObservations: 93
    HyperparameterOptimizationResults: [1x1 BayesianOptimization]
                       BoxConstraints: [93x1 double]
                      ConvergenceInfo: [1x1 struct]
                      IsSupportVector: [93x1 logical]
                               Solver: 'SMO'


최적화는 BoxConstraint, KernelScale, Epsilon, Standardize에 대해 탐색을 수행했습니다. 출력값은 최소 교차 검증 손실 추정값을 갖는 회귀입니다.

입력 인수

모두 축소

모델을 훈련시키는 데 사용되는 표본 데이터로, 테이블로 지정됩니다. Tbl의 각 행은 하나의 관측값에 대응되고, 각 열은 하나의 예측 변수에 대응됩니다. 선택적으로, Tbl은 응답 변수에 대해 하나의 추가 열을 포함할 수 있습니다. 문자형 벡터로 구성된 셀형 배열 이외의 셀형 배열과 다중 열 변수는 허용되지 않습니다.

Tbl이 응답 변수를 포함하며 Tbl의 나머지 모든 변수를 예측 변수로 사용하려는 경우 ResponseVarName을 사용하여 응답 변수를 지정하십시오.

Tbl이 응답 변수를 포함하며 Tbl의 나머지 변수 중 일부만 예측 변수로 사용하려는 경우 formula를 사용하여 공식을 지정하십시오.

Tbl이 응답 변수를 포함하지 않는 경우 Y를 사용하여 응답 변수를 지정하십시오. 응답 변수의 길이와 Tbl의 행 개수는 동일해야 합니다.

Tbl의 행 또는 Y의 요소가 하나 이상의 NaN을 포함하는 경우 fitrsvm은 모델을 훈련시킬 때 두 인수에서 해당 행과 요소를 제거합니다.

Tbl에 나오는 순서로 예측 변수의 이름을 지정하려면 PredictorNames 이름-값 쌍의 인수를 사용하십시오.

데이터형: table

응답 변수 이름으로, Tbl의 변수 이름으로 지정됩니다. 응답 변수는 숫자형 벡터여야 합니다.

ResponseVarName은 문자형 벡터나 string형 스칼라로 지정해야 합니다. 예를 들어, Tbl이 응답 변수 YTbl.Y로 저장하는 경우 이를 'Y'로 지정하십시오. 이렇게 하지 않으면 모델을 훈련시킬 때 Y를 포함한 Tbl의 모든 열이 예측 변수로 처리됩니다.

데이터형: char | string

응답 변수, 그리고 예측 변수의 부분 집합에 대한 설명 모델로, "Y~x1+x2+x3" 형식의 문자형 벡터나 string형 스칼라로 지정됩니다. 이 형식에서 Y는 응답 변수를 나타내고, x1, x2, x3은 예측 변수를 나타냅니다.

Tbl의 일부 변수를 모델 훈련에 사용할 예측 변수로 지정하려면 식을 사용하십시오. 사용자가 식을 지정하면 Tbl의 변수 중 해당 formula에 표시되지 않은 변수는 사용되지 않습니다.

식에 포함되는 변수 이름은 Tbl에 포함된 변수 이름(Tbl.Properties.VariableNames)이면서 동시에 유효한 MATLAB® 식별자여야 합니다. isvarname 함수를 사용하여 Tbl에 포함된 변수 이름을 확인할 수 있습니다. 변수 이름이 유효하지 않으면 matlab.lang.makeValidName 함수를 사용하여 변수 이름을 변환할 수 있습니다.

데이터형: char | string

응답 변수 데이터로, n×1 숫자형 벡터로 지정됩니다. Y의 길이와 Tbl 또는 X의 행 개수는 동일해야 합니다.

Tbl 또는 X의 행이나 Y의 요소가 하나 이상의 NaN을 포함하는 경우 fitrsvm은 모델을 훈련시킬 때 두 인수에서 해당 행과 요소를 제거합니다.

응답 변수 이름을 지정하려면 ResponseName 이름-값 쌍의 인수를 사용하십시오.

데이터형: single | double

SVM 회귀 모델이 피팅되는 예측 변수 데이터로, n×p 숫자형 행렬로 지정됩니다. n은 관측값 개수이고 p는 예측 변수의 개수입니다.

Y의 길이와 X의 행 개수는 동일해야 합니다.

X의 행 또는 Y의 요소가 하나 이상의 NaN을 포함하는 경우 fitrsvm은 두 인수에서 해당 행과 요소를 제거합니다.

X에 나오는 순서로 예측 변수의 이름을 지정하려면 PredictorNames 이름-값 쌍의 인수를 사용하십시오.

데이터형: single | double

이름-값 인수

선택적 인수 쌍을 Name1=Value1,...,NameN=ValueN으로 지정합니다. 여기서 Name은 인수 이름이고 Value는 대응값입니다. 이름-값 인수는 다른 인수 뒤에 와야 하지만, 인수 쌍의 순서는 상관없습니다.

R2021a 이전 릴리스에서는 쉼표를 사용하여 각 이름과 값을 구분하고 Name을 따옴표로 묶으십시오.

예: 'KernelFunction','gaussian','Standardize',true,'CrossVal','on'은 가우스 커널과 표준화된 훈련 데이터를 사용하여 10겹 교차 검증된 SVM 회귀 모델을 훈련시킵니다.

참고

교차 검증 이름-값 인수는 'OptimizeHyperparameters' 이름-값 인수와 함께 사용할 수 없습니다. 'OptimizeHyperparameters'에 대한 교차 검증을 수정하려면 'HyperparameterOptimizationOptions' 이름-값 인수를 사용해야만 합니다.

서포트 벡터 머신 옵션

모두 축소

알파 계수에 대한 상자 제약 조건으로, 'BoxConstraint'와 함께 양의 스칼라 값이 쉼표로 구분되어 지정됩니다.

Alpha 계수의 절댓값은 BoxConstraint의 값을 초과할 수 없습니다.

'gaussian' 또는 'rbf' 커널 함수의 디폴트 BoxConstraint 값은 iqr(Y)/1.349입니다. 여기서 iqr(Y)는 응답 변수 Y의 사분위 범위입니다. 다른 모든 커널에 대해 디폴트 BoxConstraint 값은 1입니다.

예: BoxConstraint,10

데이터형: single | double

그람 행렬을 계산하는 데 사용되는 커널 함수로, 'KernelFunction'과 함께 다음 표에 나와 있는 값이 쉼표로 구분되어 지정됩니다.

설명공식
'gaussian' 또는 'rbf'가우스 또는 방사 기저 함수(RBF) 커널

G(xj,xk)=exp(xjxk2)

'linear'선형 커널

G(xj,xk)=xjxk

'polynomial'다항식 커널. 'PolynomialOrder',q를 사용하여 차수가 q인 다항식 커널을 지정합니다.

G(xj,xk)=(1+xjxk)q

'KernelFunction','kernel'을 설정하여 자신만의 고유한 커널 함수(예: kernel)를 설정할 수 있습니다. kernel의 형식은 다음과 같아야 합니다.

function G = kernel(U,V)
여기서

  • U는 m×p 행렬입니다.

  • V는 n×p 행렬입니다.

  • GUV의 행으로 구성된 m×n 그람 행렬입니다.

또한, kernel.m은 MATLAB 경로에 있어야 합니다.

커널 함수에 일반적인 이름을 사용하지 않는 것이 좋습니다. 예를 들어, 시그모이드 커널 함수는 'sigmoid' 대신 'mysigmoid'로 명명하십시오.

예: 'KernelFunction','gaussian'

데이터형: char | string

커널 스케일 모수로, 'KernelScale'과 함께 'auto' 또는 양의 스칼라가 쉼표로 구분되어 지정됩니다. 소프트웨어는 예측 변수 행렬 X의 모든 요소를 KernelScale의 값으로 나눕니다. 그런 다음, 적합한 커널 노름(Norm)을 적용하여 그람 행렬을 계산합니다.

  • 'auto'를 지정하면 소프트웨어가 발견적 절차(heuristic procedure)를 사용하여 적합한 스케일링 인자를 선택합니다. 이 발견적 절차는 부표본추출을 사용하므로, 추정값이 호출마다 다를 수 있습니다. 따라서 동일한 결과를 재현하기 위해 분류기를 훈련시키기 전에 rng를 사용하여 난수 시드값을 설정합니다.

  • KernelScale과 자신만의 고유한 커널 함수(예: 'KernelFunction','kernel')를 지정하는 경우, 오류가 발생합니다. kernel 내에서 스케일링을 적용해야 합니다.

예: 'KernelScale','auto'

데이터형: double | single | char | string

다항식 커널 함수 차수로, 'PolynomialOrder'와 함께 양의 정수가 쉼표로 구분되어 지정됩니다.

'PolynomialOrder'를 설정했는데 KernelFunction'polynomial'이 아닌 경우, 오류가 발생합니다.

예: 'PolynomialOrder',2

데이터형: double | single

커널 오프셋 파라미터로, 'KernelOffset'과 함께 음이 아닌 스칼라가 쉼표로 구분되어 지정됩니다.

KernelOffset이 그람 행렬의 각 요소에 추가됩니다.

디폴트 값은 다음과 같습니다.

  • 솔버가 SMO인 경우(즉, 'Solver','SMO'를 설정하는 경우) 0

  • 솔버가 ISDA인 경우(즉, 'Solver','ISDA'를 설정하는 경우) 0.1

예: 'KernelOffset',0

데이터형: double | single

엡실론 무시 대역폭의 절반으로, 'Epsilon'과 함께 음이 아닌 스칼라 값이 쉼표로 구분되어 지정됩니다.

디폴트 Epsilon 값은 iqr(Y)/13.49입니다. 이는 응답 변수 Y의 사분위 범위를 사용하여 추정한 표준편차의 1/10입니다. iqr(Y)가 0인 경우, 디폴트 Epsilon 값은 0.1입니다.

예: 'Epsilon',0.3

데이터형: single | double

예측 변수 데이터를 표준화하는 플래그로, 'Standardize'와 함께 true(1) 또는 false(0)이 쉼표로 구분되어 지정됩니다.

'Standardize',true를 설정할 경우 다음이 수행됩니다.

  • 예측 변수 데이터(X)의 각 열을 가중 열 평균과 표준편차를 기준으로 정규화합니다(가중 표준화에 대한 자세한 내용은 알고리즘 항목 참조). MATLAB은 범주형 예측 변수에 대해 생성된 가변수 열에 포함된 데이터를 표준화하지 않습니다.

  • 표준화된 예측 변수 행렬을 사용하여 모델을 훈련시키지만, 표준화되지 않은 데이터를 모델 속성 X에 저장합니다.

예: 'Standardize',true

데이터형: logical

최적화 루틴으로, 'Solver'와 함께 다음 표에 나와 있는 값이 쉼표로 구분되어 지정됩니다.

설명
'ISDA'반복 단일 데이터 알고리즘([30] 항목 참조)
'L1QP'quadprog (Optimization Toolbox)를 사용하여 2차 계획법을 통해 L1 소프트 마진 최소화를 구현합니다. 이 옵션을 사용하려면 Optimization Toolbox™ 라이선스가 필요합니다. 자세한 내용은 2차 계획법 정의 (Optimization Toolbox) 항목을 참조하십시오.
'SMO'순차적 최소규모 최적화([17] 항목 참조)

디폴트 값은 다음과 같습니다.

  • 'OutlierFraction'을 양수 값으로 설정하는 경우 'ISDA'

  • 그렇지 않은 경우 'SMO'

예: 'Solver','ISDA'

알파 계수의 초기 추정값으로, 'Alpha'와 함께 숫자형 벡터가 쉼표로 구분되어 지정됩니다. Alpha의 길이는 X의 행 개수와 같아야 합니다.

  • Alpha의 각 요소는 X의 관측값에 대응됩니다.

  • AlphaNaN을 포함할 수 없습니다.

  • Alpha와 교차 검증 이름-값 쌍의 인수('CrossVal', 'CVPartition', 'Holdout', 'KFold' 또는 'Leaveout') 중 하나를 지정하는 경우, 소프트웨어가 오류를 반환합니다.

Y가 누락값을 포함하는 경우, 누락값에 대응되는 Y, X, Alpha의 모든 행을 제거하십시오. 즉, 다음을 입력합니다.

idx = ~isnan(Y);
Y = Y(idx);
X = X(idx,:);
alpha = alpha(idx);
그런 다음, Y, X, alpha를 각각 응답 변수, 예측 변수, 초기 알파 추정값으로 전달합니다.

디폴트 값은 zeros(size(Y,1))입니다.

예: 'Alpha',0.1*ones(size(X,1),1)

데이터형: single | double

캐시 크기로, 'CacheSize'와 함께 'maximal' 또는 양의 스칼라가 쉼표로 구분되어 지정됩니다.

CacheSize'maximal'인 경우, 소프트웨어는 전체 n×n 그람 행렬을 유지하는 데 충분한 메모리를 예약합니다.

CacheSize가 양의 스칼라인 경우, 소프트웨어는 모델 훈련에 사용하기 위해 CacheSize(단위: 메가바이트) 크기의 메모리를 예약합니다.

예: 'CacheSize','maximal'

데이터형: double | single | char | string

알파 계수 자르기 여부를 표시하는 플래그로, 'ClipAlphas'와 함께 truefalse가 쉼표로 구분되어 지정됩니다.

관측값 j에 대한 알파 계수가 αj이고 관측값 j의 상자 제약 조건이 Cj인 경우, j = 1,...,n입니다. 여기서 n은 훈련 표본 크기입니다.

설명
true각 반복마다 αj가 0에 가깝거나 Cj에 가까운 경우, MATLAB이 αj를 각각 0 또는 Cj로 설정합니다.
falseMATLAB이 최적화 과정 중에 알파 계수를 변경하지 않습니다.

MATLAB은 훈련된 SVM 모델 객체의 Alpha 속성에 α의 최종 값을 저장합니다.

ClipAlphas는 SMO 및 ISDA 수렴에 영향을 미칠 수 있습니다.

예: 'ClipAlphas',false

데이터형: logical

최적화 진단 메시지 출력 간 반복 횟수로, 'NumPrint'와 함께 음이 아닌 정수가 쉼표로 구분되어 지정됩니다.

'Verbose',1'NumPrint',numprint를 지정하는 경우, 소프트웨어가 명령 창에서 매 numprint회의 반복마다 SMO 및 ISDA의 모든 최적화 진단 메시지를 표시합니다.

예: 'NumPrint',500

데이터형: double | single

훈련 데이터의 이상값 예상 비율로, 'OutlierFraction'과 함께 구간 [0,1) 내 숫자형 스칼라가 쉼표로 구분되어 지정됩니다. fitrsvm은 기울기가 큰 관측값을 제거함으로써 수렴에 도달한 시점에 fitrsvmOutlierFraction으로 지정된 관측값의 비율을 제거하도록 합니다. 이 이름-값 쌍은 'Solver''ISDA'인 경우에만 유효합니다.

예: 'OutlierFraction',0.1

데이터형: single | double

훈련 데이터에서 중복된 관측값을 단일 관측값으로 교체하는 플래그로, 'RemoveDuplicates'와 함께 truefalse가 쉼표로 구분되어 지정됩니다.

RemoveDuplicatestrue인 경우, fitrsvm 함수는 훈련 데이터에서 중복된 관측값을 동일한 값을 가지는 단일 관측값으로 바꿉니다. 단일 관측값의 가중치는 제거된 중복 항목의 가중치를 모두 더한 합과 일치합니다(Weights 참조).

데이터 세트에 중복된 관측값이 많이 포함된 경우 'RemoveDuplicates',true를 지정하면 수렴 시간을 상당히 단축시킬 수 있습니다.

데이터형: logical

세부 정보 표시 수준으로, 'Verbose'와 함께 0, 1 또는 2가 쉼표로 구분되어 지정됩니다. Verbose의 값은 소프트웨어가 명령 창에 표시하는 최적화 정보의 양을 제어하고 이 정보를 Mdl.ConvergenceInfo.History에 구조체로 저장합니다.

다음 표에는 사용 가능한 세부 정보 표시 수준 옵션이 요약되어 있습니다.

설명
0소프트웨어가 수렴 정보를 표시하거나 저장하지 않습니다.
1소프트웨어가 매 numprint회의 반복마다 진단 메시지를 표시하고 수렴 조건을 저장합니다. 여기서 numprint는 이름-값 쌍 인수 'NumPrint'의 값입니다.
2소프트웨어가 매 반복마다 진단 메시지를 표시하고 수렴 조건을 저장합니다.

예: 'Verbose',1

데이터형: double | single

기타 회귀 옵션

모두 축소

범주형 예측 변수 목록으로, 다음 표에 있는 값 중 하나로 지정됩니다.

설명
양의 정수로 구성된 벡터

벡터의 각 요소는 대응되는 예측 변수가 범주형임을 나타내는 인덱스 값입니다. 인덱스 값은 1과 p 사이입니다. 여기서 p는 모델을 훈련시킬 때 사용되는 예측 변수의 개수입니다.

fitrsvm 함수가 입력 변수의 서브셋을 예측 변수로 사용하는 경우 함수는 해당 서브셋만 사용하여 예측 변수의 요소를 참조합니다. CategoricalPredictors 값은 응답 변수, 관측값 가중치 변수 또는 함수가 사용하지 않는 그 밖의 변수를 세지 않습니다.

논리형 벡터

요소의 값이 true이면 대응되는 예측 변수가 범주형임을 의미합니다. 벡터의 길이는 p입니다.

문자형 행렬행렬의 각 행은 예측 변수의 이름입니다. 이름은 PredictorNames의 요소와 일치해야 합니다. 문자형 행렬의 각 행의 길이가 같게 되도록 이름 뒤에 추가로 공백을 채웁니다.
string형 배열 또는 문자형 벡터로 구성된 셀형 배열배열의 각 요소는 예측 변수의 이름입니다. 이름은 PredictorNames의 요소와 일치해야 합니다.
"all"모든 예측 변수가 범주형 변수입니다.

기본적으로 예측 변수 데이터가 테이블(Tbl) 내에 있는 경우, 변수가 논리형 벡터, categorical형 벡터, 문자형 배열, string형 배열 또는 문자형 벡터로 구성된 셀형 배열이면 fitrsvm 함수는 그 변수를 범주형 변수라고 가정합니다. 예측 변수 데이터가 행렬(X)이면 fitrsvm 함수는 모든 예측 변수를 연속형 변수라고 가정합니다. 다른 모든 예측 변수를 범주형 예측 변수로 식별하려면 이러한 변수를 CategoricalPredictors 이름-값 인수를 사용하여 지정하십시오.

식별된 범주형 예측 변수에 대해 fitrsvm 함수는 범주형 변수에 순서가 지정되어 있는지에 따라 서로 다른 두 가지 체계를 사용하여 가변수를 생성합니다. 순서가 지정되지 않은 범주형 변수에 대해 fitrsvm 함수는 범주형 변수의 각 수준마다 하나의 가변수를 생성합니다. 순서가 지정된 범주형 변수에 대해 fitrsvm 함수는 범주 개수보다 하나가 적은 가변수를 생성합니다. 자세한 내용은 Automatic Creation of Dummy Variables 항목을 참조하십시오.

예: 'CategoricalPredictors','all'

데이터형: single | double | logical | char | string | cell

예측 변수 이름으로, 고유한 이름으로 구성된 string형 배열 또는 고유한 문자형 벡터로 구성된 셀형 배열로 지정됩니다. PredictorNames의 기능은 훈련 데이터를 어떤 방식으로 제공하느냐에 따라 달라집니다.

  • XY를 제공하는 경우, PredictorNames를 사용하여 X의 예측 변수에 이름을 할당할 수 있습니다.

    • PredictorNames의 이름의 순서는 X의 열 순서와 일치해야 합니다. 즉, PredictorNames{1}X(:,1)의 이름이고, PredictorNames{2}X(:,2)의 이름이 되는 식입니다. 또한, size(X,2)numel(PredictorNames)는 같아야 합니다.

    • 기본적으로 PredictorNames{'x1','x2',...}입니다.

  • Tbl을 제공하는 경우, PredictorNames를 사용하여 훈련에 사용할 예측 변수를 선택할 수 있습니다. 즉, fitrsvm 함수는 PredictorNames의 예측 변수와 이에 대한 응답 변수만을 훈련 중에 사용합니다.

    • PredictorNamesTbl.Properties.VariableNames의 부분 집합이어야 하므로 응답 변수의 이름은 포함할 수 없습니다.

    • 기본적으로, PredictorNames는 모든 예측 변수의 이름을 포함합니다.

    • PredictorNamesformula 중 하나만 사용하여 훈련에 사용할 예측 변수를 지정하는 것이 좋습니다.

예: "PredictorNames",["SepalLength","SepalWidth","PetalLength","PetalWidth"]

데이터형: string | cell

응답 변수 이름으로, 문자형 벡터 또는 string형 스칼라로 지정됩니다.

  • Y를 제공하는 경우, ResponseName을 사용하여 응답 변수의 이름을 지정할 수 있습니다.

  • ResponseVarName 또는 formula를 제공하는 경우에는 ResponseName을 사용할 수 없습니다.

예: "ResponseName","response"

데이터형: char | string

응답 변수 변환으로, 'none' 또는 함수 핸들로 지정됩니다. 디폴트 값은 'none'입니다. 이는 @(y)y 또는 변환 없음을 의미합니다. MATLAB 함수나 사용자가 직접 정의하는 함수의 경우, 이에 대한 함수 핸들을 응답 변수 변환에 사용하십시오. 함수 핸들은 벡터(원래 응답 변수 값)를 받아 동일한 크기의 벡터(변환된 응답 변수 값)를 반환해야 합니다.

예: myfunction = @(y)exp(y)를 사용하여 입력 벡터에 지수 변환을 적용하는 함수 핸들을 만들었다고 가정하겠습니다. 그런 다음 응답 변수 변환을 'ResponseTransform',myfunction으로 지정할 수 있습니다.

데이터형: char | string | function_handle

관측값 가중치로, 'Weights'와 함께 숫자형 값으로 구성된 벡터가 쉼표로 구분되어 지정됩니다. Weights의 크기는 X의 행 개수와 일치해야 합니다. fitrsvmWeights의 값의 합이 1이 되도록 정규화합니다.

데이터형: single | double

교차 검증 옵션

모두 축소

교차 검증 플래그로, 'CrossVal'과 함께 'on' 또는 'off'가 쉼표로 구분되어 지정됩니다.

'on'을 지정하면 10겹 교차 검증을 구현합니다.

이 교차 검증 설정을 재정의하려면 CVPartition, Holdout, KFold, Leaveout 이름-값 쌍의 인수 중 하나를 사용하십시오. 교차 검증된 모델을 생성하려면 한 번에 하나의 교차 검증 이름-값 쌍의 인수만 사용해야 합니다.

또는, crossval 메서드를 사용하여 나중에 모델을 교차 검증할 수 있습니다.

예: 'CrossVal','on'

교차 검증 분할로, 교차 검증의 유형과 훈련 세트 및 검증 세트의 인덱싱을 지정하는 cvpartition 객체로 지정됩니다.

교차 검증된 모델을 생성하려면 다음 4개의 이름-값 인수 중 하나만 지정할 수 있습니다. CVPartition, Holdout, KFold, Leaveout

예: cvp = cvpartition(500,KFold=5)를 사용하여 500개 관측값에 대한 5겹 교차 검증에 사용할 임의 분할을 생성한다고 가정하겠습니다. 그러면 CVPartition=cvp를 설정하여 교차 검증 분할을 지정할 수 있습니다.

홀드아웃 검증에 사용할 데이터의 비율로, 범위 [0,1] 내 스칼라 값으로 지정됩니다. Holdout=p를 지정하는 경우 소프트웨어는 다음 단계를 완료합니다.

  1. 데이터의 p*100%를 무작위로 선택하여 검증 데이터용으로 남겨두고 나머지 데이터를 사용하여 모델을 훈련시킵니다.

  2. 교차 검증된 모델의 Trained 속성에 훈련된 간소 모델을 저장합니다.

교차 검증된 모델을 생성하려면 다음 4개의 이름-값 인수 중 하나만 지정할 수 있습니다. CVPartition, Holdout, KFold, Leaveout

예: Holdout=0.1

데이터형: double | single

교차 검증된 모델에 사용할 겹의 개수로, 1보다 큰 양의 정수 값으로 지정됩니다. KFold=k를 지정하는 경우 소프트웨어는 다음 단계를 완료합니다.

  1. 데이터를 k개 세트로 임의로 분할합니다.

  2. 각 세트마다 해당 세트를 검증 데이터로 남겨두고 나머지 k – 1개의 세트를 사용하여 모델을 훈련시킵니다.

  3. 교차 검증된 모델의 Trained 속성에 k×1 셀형 벡터로 k개의 훈련된 간소 모델을 저장합니다.

교차 검증된 모델을 생성하려면 다음 4개의 이름-값 인수 중 하나만 지정할 수 있습니다. CVPartition, Holdout, KFold, Leaveout

예: KFold=5

데이터형: single | double

리브-원-아웃 교차 검증 플래그로, "on" 또는 "off"로 지정됩니다. Leaveout="on"을 지정하는 경우, n개(여기서 n은 모델의 NumObservations 속성에 지정된 관측값 중 누락된 관측값을 제외한 개수임)의 관측값 각각에 대해 소프트웨어가 다음 단계를 완료합니다.

  1. 1개의 관측값을 검증 데이터로 남겨두고 나머지 n – 1개 관측값을 사용하여 모델을 훈련시킵니다.

  2. 교차 검증된 모델의 Trained 속성에 n×1 셀형 벡터로 n개의 훈련된 간소 모델을 저장합니다.

교차 검증된 모델을 생성하려면 다음 4개의 이름-값 인수 중 하나만 지정할 수 있습니다. CVPartition, Holdout, KFold, Leaveout

예: Leaveout="on"

데이터형: char | string

수렴 제어

모두 축소

SMO 또는 ISDA로 구한 상한 이탈값과 하한 이탈값 간의 기울기 차이에 대한 허용오차로, 'DeltaGradientTolerance'와 함께 음이 아닌 스칼라가 쉼표로 구분되어 지정됩니다.

예: 'DeltaGradientTolerance',1e-4

데이터형: single | double

SMO 또는 ISDA로 구한 실현가능성 격차 허용오차로, 'GapTolerance'와 함께 음이 아닌 스칼라가 쉼표로 구분되어 지정됩니다.

GapTolerance0이면 fitrsvm은 이 모수를 사용하여 수렴을 확인하지 않습니다.

예: 'GapTolerance',1e-4

데이터형: single | double

수치 최적화 반복의 최대 횟수로, 'IterationLimit'와 함께 양의 정수가 쉼표로 구분되어 지정됩니다.

최적화 루틴이 성공적으로 수렴되는지 여부에 상관없이 소프트웨어가 훈련된 모델을 반환합니다. Mdl.ConvergenceInfo는 수렴 정보를 포함합니다.

예: 'IterationLimit',1e8

데이터형: double | single

카루쉬-쿤-터커(KKT) 위반에 대한 허용오차로, 'KKTTolerance'와 함께 음이 아닌 스칼라 값이 쉼표로 구분되어 지정됩니다.

이 이름-값 쌍은 'Solver''SMO' 또는 'ISDA'인 경우에만 적용됩니다.

KKTTolerance0이면 fitrsvm은 이 모수를 사용하여 수렴을 확인하지 않습니다.

예: 'KKTTolerance',1e-4

데이터형: single | double

활성 세트 감소 간의 반복 횟수로, 'ShrinkagePeriod'와 함께 음이 아닌 정수가 쉼표로 구분되어 지정됩니다.

'ShrinkagePeriod',0을 설정하는 경우, 소프트웨어는 활성 세트를 축소하지 않습니다.

예: 'ShrinkagePeriod',1000

데이터형: double | single

하이퍼파라미터 최적화

모두 축소

최적화할 모수로, 'OptimizeHyperparameters'와 함께 다음 값 중 하나가 쉼표로 구분되어 지정됩니다.

  • 'none' — 최적화하지 않습니다.

  • 'auto'{'BoxConstraint','KernelScale','Epsilon','Standardize'}를 사용합니다.

  • 'all' — 모든 적합한 모수를 최적화합니다.

  • 적합한 모수 이름으로 구성된 string형 배열 또는 셀형 배열.

  • optimizableVariable 객체로 구성된 벡터. 일반적으로 hyperparameters의 출력값입니다.

최적화는 모수를 변경하여 fitrsvm에 대한 교차 검증 손실(오차)을 최소화하려고 합니다. 교차 검증 유형과 최적화의 기타 측면을 제어하려면 HyperparameterOptimizationOptions 이름-값 쌍을 사용하십시오.

참고

'OptimizeHyperparameters' 값은 다른 이름-값 인수를 사용하여 지정하는 모든 값을 재정의합니다. 예를 들어 'OptimizeHyperparameters''auto'로 설정하면 fitrsvm 함수는 'auto' 옵션에 대응되는 하이퍼파라미터를 최적화하고 하이퍼파라미터에 대해 지정된 값을 모두 무시합니다.

fitrsvm에 대한 적합한 모수는 다음과 같습니다.

  • BoxConstraintfitrsvm이 기본적으로 범위 [1e-3,1e3]에서 로그 스케일링된 양수 값 중에서 탐색을 수행합니다.

  • Epsilonfitrsvm이 기본적으로 범위 [1e-3,1e2]*iqr(Y)/1.349에서 로그 스케일링된 양수 값 중에서 탐색을 수행합니다.

  • KernelFunctionfitrsvm'gaussian', 'linear', 'polynomial' 중에서 탐색을 수행합니다.

  • KernelScalefitrsvm이 기본적으로 범위 [1e-3,1e3]에서 로그 스케일링된 양수 값 중에서 탐색을 수행합니다.

  • PolynomialOrderfitrsvm이 범위 [2,4] 내 정수 중에서 탐색을 수행합니다.

  • Standardizefitrsvm'true''false' 중에서 탐색을 수행합니다.

디폴트가 아닌 값을 가지는 optimizableVariable 객체로 구성된 벡터를 전달하여 디폴트가 아닌 모수를 설정합니다. 예를 들면 다음과 같습니다.

load carsmall
params = hyperparameters('fitrsvm',[Horsepower,Weight],MPG);
params(1).Range = [1e-4,1e6];

paramsOptimizeHyperparameters의 값으로 전달합니다.

기본적으로, 반복 표시가 명령줄에 표시되고, 최적화에 지정된 하이퍼파라미터 개수에 따라 플롯이 표시됩니다. 최적화와 플롯에 대해 목적 함수는 log(1 + cross-validation loss)입니다. 반복 표시를 제어하려면 'HyperparameterOptimizationOptions' 이름-값 인수에 대한 Verbose 필드를 설정하십시오. 플롯을 제어하려면 'HyperparameterOptimizationOptions' 이름-값 인수에 대한 ShowPlots 필드를 설정하십시오.

예제는 SVM 회귀 최적화하기 항목을 참조하십시오.

예: 'OptimizeHyperparameters','auto'

최적화에 사용할 옵션으로, 구조체로 지정됩니다. 이 인수는 OptimizeHyperparameters 이름-값 인수의 효과를 수정합니다. 이 구조체에 포함된 모든 필드는 선택 사항입니다.

필드 이름디폴트 값
Optimizer
  • 'bayesopt' — 베이즈 최적화를 사용합니다. 내부적으로 이 설정은 bayesopt를 호출합니다.

  • 'gridsearch' — 차원당 NumGridDivisions개 값으로 그리드 탐색을 수행합니다.

  • 'randomsearch'MaxObjectiveEvaluations개 점 중에서 무작위로 탐색합니다.

'gridsearch'는 그리드에서 균등한 비복원추출을 사용하여 무작위 순서로 탐색을 수행합니다. 최적화를 수행한 후, 명령 sortrows(Mdl.HyperparameterOptimizationResults)를 사용하여 그리드순으로 정렬된 테이블을 얻을 수 있습니다.

'bayesopt'
AcquisitionFunctionName

  • 'expected-improvement-per-second-plus'

  • 'expected-improvement'

  • 'expected-improvement-plus'

  • 'expected-improvement-per-second'

  • 'lower-confidence-bound'

  • 'probability-of-improvement'

최적화는 목적 함수의 런타임에 종속적이기 때문에 이름에 per-second가 포함된 획득 함수는 재현 가능한 결과를 산출하지 않습니다. 이름에 plus가 포함된 획득 함수는 특정 영역을 과도하게 사용하게 될 경우 동작을 수정합니다. 자세한 내용은 획득 함수 유형 항목을 참조하십시오.

'expected-improvement-per-second-plus'
MaxObjectiveEvaluations목적 함수 실행의 최대 횟수입니다.'bayesopt''randomsearch'의 경우 30이고, 'gridsearch'의 경우 그리드 전체입니다.
MaxTime

시간 제한으로, 양의 실수형 스칼라로 지정됩니다. 시간 제한은 초 단위이며, tictoc으로 측정됩니다. MaxTime은 함수 계산을 중단시키지 않으므로 실행 시간은 MaxTime을 초과할 수 있습니다.

Inf
NumGridDivisions'gridsearch'의 경우, 각 차원의 값 개수입니다. 이 값은 각 차원에 대한 값의 개수를 제공하는 양의 정수로 구성된 벡터 또는 모든 차원에 적용되는 스칼라일 수 있습니다. 이 필드는 범주형 변수의 경우 무시됩니다.10
ShowPlots플롯 표시 여부를 나타내는 논리값입니다. true인 경우, 이 필드는 반복 횟수에 대해 최선의 관측된 목적 함수 값을 플로팅합니다. 베이즈 최적화를 사용하는 경우(Optimizer'bayesopt'임), 이 필드는 최선의 추정된 목적 함수 값도 플로팅합니다. 최선의 관측된 목적 함수 값과 최선의 추정된 목적 함수 값은 각각 반복 표시의 BestSoFar (observed) 열과 BestSoFar (estim.) 열의 값에 대응됩니다. Mdl.HyperparameterOptimizationResults의 속성 ObjectiveMinimumTraceEstimatedObjectiveMinimumTrace에서 이러한 값을 확인할 수 있습니다. 문제에 베이즈 최적화를 위한 하나 또는 두 개의 최적화 모수가 있는 경우, ShowPlots는 이 모수에 대해서도 목적 함수의 모델을 플로팅합니다.true
SaveIntermediateResultsOptimizer'bayesopt'인 경우 결과를 저장할지 여부를 나타내는 논리값입니다. true인 경우, 이 필드는 각 반복마다 'BayesoptResults'라는 이름의 작업 공간 변수를 덮어씁니다. 변수는 BayesianOptimization 객체입니다.false
Verbose

명령줄에 표시되는 내용:

  • 0 — 반복 표시 안 함

  • 1 — 반복 표시

  • 2 — 추가 정보와 함께 반복 표시

자세한 내용은 bayesopt Verbose 이름-값 인수 및 예제 베이즈 최적화를 사용하여 분류기 피팅 최적화하기를 참조하십시오.

1
UseParallel베이즈 최적화를 병렬로 실행할지 여부를 나타내는 논리값으로, Parallel Computing Toolbox™가 필요합니다. 병렬 시간 재현이 불가능하기 때문에, 병렬 베이즈 최적화에서 반드시 재현 가능한 결과를 산출하지는 않습니다. 자세한 내용은 Parallel Bayesian Optimization 항목을 참조하십시오.false
Repartition

매 반복 시 교차 검증을 다시 분할할지 여부를 나타내는 논리값입니다. 이 필드의 값이 false인 경우, 최적화 함수는 최적화에 단일 분할을 사용합니다.

true로 설정할 경우, 분할 잡음이 고려되므로 일반적으로 가장 견고한 결과가 제공됩니다. 그러나, true에서 좋은 결과를 생성하려면 적어도 두 배 더 많은 횟수의 함수 실행이 필요합니다.

false
다음과 같은 3개 옵션 중 하나만 사용합니다.
CVPartitioncvpartition으로 생성되는 cvpartition 객체교차 검증 필드를 지정하지 않을 경우 'Kfold',5
Holdout홀드아웃 비율을 나타내는 범위 (0,1) 내 스칼라
Kfold1보다 큰 정수

예: 'HyperparameterOptimizationOptions',struct('MaxObjectiveEvaluations',60)

데이터형: struct

출력 인수

모두 축소

훈련된 SVM 회귀 모델로, RegressionSVM 모델 또는 RegressionPartitionedSVM 교차 검증된 모델로 반환됩니다.

이름-값 쌍의 인수 KFold, Holdout, Leaveout, CrossVal 또는 CVPartition 중 어느 하나라도 설정하면, MdlRegressionPartitionedSVM 교차 검증된 모델입니다. 그러지 않은 경우 MdlRegressionSVM 모델입니다.

제한 사항

fitrsvm 함수는 저차원에서 중간 차원까지의 데이터 세트를 지원합니다. 고차원 데이터 세트에 대해서는 fitrlinear를 대신 사용하십시오.

  • 데이터 세트가 크지 않다면 항상 예측 변수를 표준화하도록 하십시오(Standardize 참조). 표준화를 수행하면 예측 변수가 측정되는 척도에 영향을 받지 않게 됩니다.

  • KFold 이름-값 쌍의 인수를 사용하여 교차 검증을 수행하는 것이 좋습니다. 교차 검증 결과를 통해 SVM 모델이 얼마나 잘 일반화되는지 확인할 수 있습니다.

  • 서포트 벡터의 희소성은 SVM 모델에 있어서는 이상적인 속성입니다. 서포트 벡터의 개수를 줄이려면 BoxConstraint 이름-값 쌍의 인수를 큰 값으로 설정하십시오. 단, 이 동작을 수행하면 훈련 시간이 증가합니다.

  • 최적의 훈련 시간을 위해 CacheSize를 컴퓨터의 메모리 제한이 허용하는 한 최대한 높게 설정하십시오.

  • 훈련 세트에서 서포트 벡터의 개수가 관측값보다 훨씬 적을 거라 예상되는 경우, 이름-값 쌍의 인수 'ShrinkagePeriod'를 사용하여 활성 세트를 축소함으로써 수렴되는 속도를 상당히 높일 수 있습니다. 'ShrinkagePeriod',1000을 사용하는 것이 좋습니다.

  • 회귀선에서 멀리 떨어진 중복된 관측값은 수렴에 영향을 미치지 않습니다. 그러나, 회귀선 가까이에 있는 중복된 관측값은 몇 개만 있더라도 수렴되는 속도가 상당히 느려질 수 있습니다. 다음과 같은 경우 'RemoveDuplicates',true를 지정하여 수렴되는 속도를 높이십시오.

    • 데이터 세트에 중복된 관측값이 많이 있는 경우.

    • 몇 개의 중복된 관측값이 회귀선 가까이에 있을 수 있다고 의심되는 경우.

    단, 훈련 중에 원래 데이터 세트를 유지하기 위해, fitrsvm 함수는 원래 데이터 세트와 중복된 관측값을 제거한 데이터 세트를 일시적으로 각각 별도로 저장해야 합니다. 따라서, 몇몇 중복된 관측값을 포함하는 데이터 세트에 대해 true를 지정할 경우 fitrsvm 함수는 원래 데이터 메모리의 두 배에 가까운 메모리를 사용합니다.

  • 모델을 훈련시킨 후에는 새 데이터에 대한 응답 변수를 예측하는 C/C++ 코드를 생성할 수 있습니다. C/C++ 코드를 생성하려면 MATLAB Coder™가 필요합니다. 자세한 내용은 Introduction to Code Generation 항목을 참조하십시오.

알고리즘

  • 선형 SVM 회귀 문제와 비선형 SVM 회귀 문제의 수학적 정식화, 그리고 솔버 알고리즘에 대해 알아보려면 서포트 벡터 머신 회귀 이해하기 항목을 참조하십시오.

  • NaN, <undefined>, 빈 문자형 벡터(''), 빈 string형(""), <missing> 값은 누락 데이터 값을 나타냅니다. fitrsvm 함수는 누락 응답 변수에 대응되는 데이터의 전체 행을 제거합니다. 가중치를 정규화할 때, fitrsvm 함수는 최소 한 개의 누락 예측 변수를 갖는 관측값에 대응되는 가중치를 모두 무시합니다. 따라서, 관측값 상자 제약 조건은 BoxConstraint와 일치하지 않을 수 있습니다.

  • fitrsvm 함수는 가중치가 0인 관측값을 제거합니다.

  • 'Standardize',true'Weights'를 설정하면 fitrsvm 함수는 대응되는 가중 평균과 가중 표준편차를 사용하여 예측 변수를 표준화합니다. 즉, fitrsvm은 다음을 사용하여 예측 변수 j(xj)를 표준화합니다.

    xj=xjμjσj.

    • μj=1kwkkwkxjk.

    • xjk는 예측 변수 j(열)의 관측값 k(행)입니다.

    • (σj)2=v1v12v2kwk(xjkμj)2.

    • v1=jwj.

    • v2=j(wj)2.

  • 예측 변수 데이터에 범주형 변수가 포함된 경우 소프트웨어가 일반적으로 이러한 변수에 대해 전체 가변수 인코딩을 사용합니다. 소프트웨어는 각 범주형 변수의 각 수준마다 하나의 가변수를 생성합니다.

    • PredictorNames 속성은 원래 예측 변수 이름마다 하나의 요소를 저장합니다. 예를 들어, 세 개의 예측 변수가 있고, 그중 하나가 세 개 수준을 갖는 범주형 변수라고 가정해 보겠습니다. 그러면 PredictorNames는 예측 변수의 원래 이름을 포함하는 문자형 벡터로 구성된 1×3 셀형 배열이 됩니다.

    • ExpandedPredictorNames 속성은 가변수를 포함하여 예측 변수마다 하나의 요소를 저장합니다. 예를 들어, 세 개의 예측 변수가 있고, 그중 하나가 세 개 수준을 갖는 범주형 변수라고 가정해 보겠습니다. 그러면 ExpandedPredictorNames는 예측 변수 이름 및 새 가변수의 이름을 포함하는 문자형 벡터로 구성된 1×5 셀형 배열이 됩니다.

    • 마찬가지로, Beta 속성은 가변수를 포함하여 예측 변수마다 하나의 베타 계수를 저장합니다.

    • SupportVectors 속성은 가변수를 포함하여 서포트 벡터에 대한 예측 변수 값을 저장합니다. 예를 들어, m개의 서포트 벡터와 세 개의 예측 변수가 있고, 그중 하나가 세 개의 수준을 갖는 범주형 변수라고 가정해 보겠습니다. 그러면 SupportVectors는 m×5 행렬이 됩니다.

    • X 속성은 훈련 데이터를 원래 입력된 대로 저장합니다. 가변수는 포함하지 않습니다. 입력값이 테이블인 경우, X는 예측 변수로 사용된 열만 포함합니다.

  • 테이블에 지정된 예측 변수에 대해 변수 중 하나가 순서가 지정된(순서형) 범주를 포함하는 경우 소프트웨어는 이러한 변수에 대해 순서형 인코딩(Ordinal Encoding)을 사용합니다.

    • 순서가 지정된 k개의 수준을 갖는 변수에 대해 k – 1개의 가변수를 생성합니다. j번째 가변수는 j 수준까지는 -1이 되고, j + 1에서 k까지의 수준에서는 +1이 됩니다.

    • ExpandedPredictorNames 속성에 저장된 가변수의 이름은 값 +1을 갖는 첫 번째 수준을 나타냅니다. 소프트웨어는 수준 2, 3, ..., k의 이름을 포함하여 가변수에 대해 k – 1개의 추가 예측 변수 이름을 저장합니다.

  • 모든 솔버는 L1 소프트 마진(Soft-Margin) 최소화를 구현합니다.

  • p는 훈련 데이터에서 사용자가 예상하는 이상값 비율이라고 하겠습니다. 'OutlierFraction',p를 설정하면 로버스트 학습을 구현합니다. 다시 말해, 최적화 알고리즘이 수렴될 때 소프트웨어가 관측값의 100p%를 제거한다는 의미입니다. 제거되는 관측값은 크기가 큰 기울기에 해당합니다.

참고 문헌

[1] Clark, D., Z. Schreter, A. Adams. "A Quantitative Comparison of Dystal and Backpropagation." submitted to the Australian Conference on Neural Networks, 1996.

[2] Fan, R.-E., P.-H. Chen, and C.-J. Lin. “Working set selection using second order information for training support vector machines.” Journal of Machine Learning Research, Vol 6, 2005, pp. 1889–1918.

[3] Kecman V., T. -M. Huang, and M. Vogt. “Iterative Single Data Algorithm for Training Kernel Machines from Huge Data Sets: Theory and Performance.” In Support Vector Machines: Theory and Applications. Edited by Lipo Wang, 255–274. Berlin: Springer-Verlag, 2005.

[4] Lichman, M. UCI Machine Learning Repository, [http://archive.ics.uci.edu/ml]. Irvine, CA: University of California, School of Information and Computer Science.

[5] Nash, W.J., T. L. Sellers, S. R. Talbot, A. J. Cawthorn, and W. B. Ford. "The Population Biology of Abalone (Haliotis species) in Tasmania. I. Blacklip Abalone (H. rubra) from the North Coast and Islands of Bass Strait." Sea Fisheries Division, Technical Report No. 48, 1994.

[6] Waugh, S. "Extending and Benchmarking Cascade-Correlation: Extensions to the Cascade-Correlation Architecture and Benchmarking of Feed-forward Supervised Artificial Neural Networks." University of Tasmania Department of Computer Science thesis, 1995.

확장 기능

버전 내역

R2015b에 개발됨

모두 확장