개요 (MLP 명령)
신경망은 데이터베이스에서 알 수 없는 패턴을 찾기 위한 데이터 마이닝 도구입니다. 신경망은 가격 및 기타 변수의 함수로 제품에 대한 수요를 예측하거나 구매 습관 및 인구 통계적 특성을 기반으로 고객을 분류하여 비즈니스 의사결정을 내리는 데 사용할 수 있습니다. MLP 프로시저는 다층 퍼셉트론이라고 하는 특정 종류의 신경망에 적합합니다. 다중 레이어 퍼셉트론은 피드포워드 아키텍처를 사용하며 다중 은닉층을 가질 수 있습니다. 이것은 가장 일반적으로 사용되는 신경망 아키텍처 중 하나입니다.
옵션
예측 또는 분류. 하나 이상의 종속변수를 지정할 수 있으며 척도, 범주형 또는 조합일 수 있습니다. 종속변수에 척도 측정 수준이 있는 경우 신경망은 입력 데이터의 일부 연속형 함수의 "참" 값에 근사한 연속형 값을 예측합니다. 종속변수가 범주형인 경우 신경망을 사용하여 입력 예측변수를 기준으로 케이스를 " 최적 범주로 분류합니다.
조정. MLP 는 신경망을 훈련하기 전에 공변량 또는 척도 종속변수를 선택적으로 척도 조정합니다. 표준화, 정규화 및 조정된 정규화의 세 가지 척도 조정 옵션이 있습니다.
훈련, 검정 및 검증용 데이터. MLP 는 선택적으로 데이터 세트를 훈련, 검정 및 검증용 데이터로 나눕니다. 신경망은 훈련 데이터를 사용하여 훈련됩니다. 훈련 데이터 또는 테스트 데이터 또는 둘 다 단계에서 오류를 추적하고 훈련을 중지할 시기를 판별하는 데 사용할 수 있습니다. 검증 데이터는 훈련 프로세스에서 완전히 제외되며 최종 네트워크의 독립적인 평가에 사용됩니다.
아키텍처 선택사항. MLP 는 자동 아키텍처 선택을 수행하거나 사용자 스펙을 기반으로 신경망을 빌드할 수 있습니다. 자동 아키텍처 선택은 하나의 은닉층이 있는 신경망을 작성하고 " 가장 많은 수의 숨겨진 단위를 찾습니다. 또는 하나 또는 두 개의 은닉층을 지정하고 각 레이어의 숨겨진 단위 수를 정의할 수 있습니다.
활성화 함수. 은닉층의 단위는 쌍곡선 또는 sigmoid 활성화 기능을 사용할 수 있습니다. 출력 계층의 단위는 하이퍼볼릭, sigmoid, ID 또는 softmax 활성화 기능을 사용할 수 있습니다.
훈련 방법. 신경망 네트워크는 일괄처리, 온라인 또는 미니 일괄처리 훈련을 사용하여 빌드할 수 있습니다. 기울기 하강 및 스케일된 켤레 기울기 최적화 알고리즘을 사용할 수 있습니다.
결측값. MLP 프로시저에는 범주형 변수의 사용자 결측값을 유효한 값으로 처리하는 옵션이 있습니다. 척도변수의 사용자 결측값은 항상 유효하지 않은 것으로 처리됩니다.
출력. MLP 은 피벗표 결과를 표시하지만 대부분의 해당 결과를 표시하지 않는 옵션을 제공합니다. 그래픽 출력에는 네트워크 다이어그램 (기본값) 및 다수의 선택적 차트가 포함됩니다. 예를 들어, 예측값별 예측값, 잔차별 예측값, ROC (Receiver Operating Characteristic) 곡선, 누적 이득, 리프트 및 독립 변수 중요도입니다. 또한 이 프로시저는 선택적으로 예측값을 활성 데이터 세트에 저장합니다. 시냅스 가중치 추정값을 IBM® SPSS® Statistics 또는 XML 파일에도 저장할 수 있습니다.
기본 스펙
기본 지정 사항은 MLP 명령 다음에 하나 이상의 종속변수, BY 키워드 및 하나 이상의 요인, WITH 키워드 및 하나 이상의 공변량입니다. 기본적으로 MLP 프로시저는 신경망을 훈련하기 전에 공변량을 표준화하고 훈련 표본을 선택합니다. 자동 아키텍처 선택은 " 최상의 신경망 아키텍처를 찾는 데 사용됩니다. 사용자 결측값은 제외되고 기본 피벗표 결과가 표시됩니다.
구문 규칙
- 모든 하위 명령은 선택사항입니다.
- 하위 명령은 임의의 순서로 지정할 수 있습니다.
- 각 하위 명령의 단일 인스턴스만 허용됩니다.
- 하위 명령 내에서 키워드가 두 번 이상 지정되면 오류가 발생합니다.
- 구문 차트에 표시된 괄호, 등호 및 슬래시가 필요합니다.
- 명령 이름, 하위 명령 이름 및 키워드의 전체 철자를 입력해야 합니다.
- 비어 있는 하위 명령은 허용되지 않습니다.
SPLIT FILE명령에 정의된 분할변수는 종속변수, 요인, 공변량 또는 분할변수로 사용할 수 없습니다.
제한사항
WEIGHT 설정은 MLP 프로시저의 경고와 함께 무시됩니다.
범주형 변수
MLP 프로시저에서는 범주형 변수를 예측변수 또는 종속변수로 사용할 수 있지만 범주 수가 매우 많은 범주형 변수를 사용하는 경우에는 주의해야 합니다.
MLP 프로시저는 프로시저 기간 동안c 코딩 중 하나를 사용하여 범주형 예측변수 및 종속변수를 임시로 코딩변경합니다. 변수의 c 범주가 있는 경우 변수는 c 벡터로 저장되며 첫 번째 범주는 (1,0, ..., 0), 다음 범주는 (0,1,0, ..., 0), ..., 및 최종 범주 (0,0, ..., 0, 1).
이러한 코딩 방식은 시냅스 가중치의 수를 증가시킨다. 특히, 입력 단위의 총 수는 척도 예측변수 수에 모든 범주형 예측변수의 범주 수를 더한 값입니다. 결과적으로, 이러한 코딩 방식은 더 느린 트레이닝을 야기할 수 있지만, 더 많은 " 콤팩트한 코딩 방법들은 일반적으로 불충분하게 적합한 신경 네트워크들을 야기한다. 네트워크 훈련이 매우 느리게 진행되는 경우 MLP 프로시저를 실행하기 전에 유사한 범주를 결합하거나 매우 드문 범주가 있는 케이스를 삭제하여 범주형 예측변수의 범주 수를 줄일 수 있습니다.
검정 또는 검증용 표본이 정의된 경우에도 모든c 코딩 중 하나는 훈련 데이터를 기반으로 합니다 ( PARTITION 하위 명령 (MLP 명령)참조). 따라서 훈련 데이터에 없는 예측 변수 범주가 포함된 케이스가 검정 또는 검증용 표본에 있는 경우, 이러한 케이스는 프로시저 또는 스코어링에서 사용되지 않습니다. 훈련 데이터에 없는 종속 변수 범주가 포함된 케이스가 검정 또는 검증용 표본에 있는 경우, 이러한 케이스는 프로시저에서 사용되지 않지만 스코어링될 수는 있습니다.
결과 복제
MLP 프로시저는 파티션의 무작위 지정 중 난수 생성, 시냅스 가중치 초기화를 위한 무작위 하위 샘플링, 자동 아키텍처 선택을 위한 무작위 하위 샘플링, 가중치 초기화 및 자동 아키텍처 선택에 사용되는 시뮬레이션된 어닐링 알고리즘을 사용합니다. 나중에 동일한 무작위 결과를 다시 생성하려면 MLP 프로시저를 각각 실행하기 전에 SET 명령을 사용하여 난수 생성기의 초기화 값을 설정하십시오.
MLP 결과도 데이터 순서에 따라 다릅니다. 온라인 및 미니 일괄처리 훈련 방법은 명시적으로 데이터 순서에 종속되지만, 일괄처리 훈련도 가중치 초기화 알고리즘으로 인해 데이터 순서에 종속됩니다. 세 가지 훈련 방법 모두에 대해 시냅스 가중치의 초기화는 시뮬레이션된 어닐링을 사용하며, 이는 전체 데이터 세트에서 무작위 샘플을 가져와 무작위로 이를 훈련 (70%) 및 검정 (30%) 표본으로 분할합니다. 무작위 표본의 크기는 N = min (1000, memsize) 입니다. 여기서 memsize 는 메모리에 저장된 사용자 제어 최대 케이스 수입니다. ( /CRITERIA MEMSIZE 키워드를 참조하십시오.) 전체 데이터 세트에 N 개 미만의 케이스가 있는 경우 모든 N 개의 케이스가 사용됩니다.
데이터 순서 영향을 최소화하려면 MLP 프로시저를 실행하기 전에 케이스를 무작위로 정렬하십시오. 주어진 해법의 안정성을 확인하기 위해 케이스를 각기 다른
무작위 순서로 정렬하여 서로 다른 여러 가지 해법을 구할 수도 있습니다. 파일 크기가
너무 큰 경우에는 케이스를 각기 다른 무작위 순서로 정렬한 표본을 사용하여
여러 번 실행할 수도 있습니다.
마지막으로 MLP 결과는 명령행 변수 순서가 변경될 때 지정된 초기값의 다른 패턴으로 인해 명령행의 변수 순서에 의해 영향을 받을 수 있습니다. 데이터 순서 효과와 마찬가지로 다른 명령행 변수 순서를 시도하여 지정된 솔루션의 안정성을 평가할 수 있습니다.
요약하면, 나중에 MLP 결과를 정확하게 복제하려면 동일한 MLP 프로시저 설정을 사용하는 것 외에도 난수 생성기에 대해 동일한 초기화 값, 동일한 데이터 순서 및 동일한 명령행 변수 순서를 사용하십시오.