aug 02, 2019
admin
0
82

keras gru 예제

시퀀스 회귀 모델, 출력 노드의 경우 출력 벡터의 최대 가변 길이를 제공해야합니다. 마지막으로 우리는 출력 벡터를 얻을 것이다, 우리는 텍스트로이 출력 벡터로 변환하는 방법, 어떤 방법은 우리가 정수 변환 벡터처럼, 벡터 변환에 문자열을하고있는 포함 레이어에서와 같이, Keras에서 사용할 수 있습니다. 케라스는 테아노와 텐서플로우 의 꼭대기에서 실행됩니다. 하나 또는 다른 Keras를 사용 하는 데 필요한. 안녕하세요 제이슨, 당신은 LSTM에서 time_step에 대해 말해 줄 수 있습니까?, 예를 들어 또는 쉽게 이해할 수있는 무언가. 내 데이터에 2 차원이 있는 경우 [[1,2]… 【1,3】】 우푸트:[1,… 0], 그래서 각막, LSTM 레이어는 3 차원이 필요, 그래서 난 그냥 time_step =1와 3 차원으로 입력 데이터를 바꿀 수 있습니다, 이처럼 훈련 할 수 있습니다?, time_step> 1이 더 나은, 나는 LSTM에서 time_step의 평균을 알고 싶어요, 내 질문을 읽어 주셔서 대단히 감사합니다. 다음으로 입력 시퀀스가 모델링에 모두 동일한 길이가 되도록 입력 시퀀스를 트렁킹하고 패드처리해야 합니다. 모델은 0 값이 정보를 전달하지 않으므로 실제로 시퀀스가 콘텐츠 측면에서 동일한 길이가 아니지만 Keras에서 계산을 수행하기 위해 동일한 길이 벡터가 필요합니다.

모델을 완료한 Keras의 다음 단계는 모델에서 컴파일 명령을 실행하는 것입니다. 그것은 다음과 같이 보인다 : 그것은 나를 귀찮게하지 않습니다 요구 사항이 케라스의 효율성 문제에 대한 경우, 제로의 (제로 패딩이 사용되는 경우) 제로 정보를 전달하는 것으로 간주됩니다. 오디오 스펙트로그램 의 경우 원시 파형 (1-D) 또는 스펙트로그램 (2-D)을 제로 패딩하는 것이 좋습니다. 귀하의 게시물에 비유와 함께, 선택은 비록 전자 될 것 이다. 실험으로” ”간단한” LSTM 예제에서 모델에 한 줄을 추가했습니다. 학습된 Keras LSTM 모델을 테스트하기 위해 예측된 단어 출력을 학습 및 테스트 데이터 집합에 있는 실제 단어 시퀀스와 비교할 수 있습니다. 아래 코드는 예측된 모델 출력 및 학습 데이터 집합과 비교하여 이 작업을 수행하는 방법의 코드입니다(test_data 데이터로 동일한 작업을 수행할 수 있음). 이 경우 포함 계층에 대한 입력은 (batch_size, num_steps) 및 출력 (batch_size, num_steps, hidden_size)입니다.

순차 모델의 Keras는 항상 일괄 처리 크기를 첫 번째 차원으로 유지합니다. Keras 피팅 함수(즉, fit_generator)에서 일괄 처리 크기를 수신하므로 순차 모델 레이어의 정의에 거의 포함되지 않습니다.] 예를 들어 이미지 시퀀스가 있고 각 예제에 특정 레이블이 할당되는 문제에 대해 작업하고 있습니다. 시퀀스의 이미지 수는 예제마다 다를 수 있습니다. 1) LSTM 레이어를 입력 레이어로 사용할 수 있습니까? Keras LSTM 네트워크의 다음 계층은 오버피팅을 방지하기 위한 드롭아웃 계층입니다. 그런 다음 TimeDistributed라는 반복 신경망에 사용할 특수 케라스 계층이 있습니다. 이 함수는 되풀이 모델의 각 시간 단계에 대해 독립적인 레이어를 추가합니다. 예를 들어 모델에 10개의 시간 단계가 있는 경우 조밀한 레이어에서 작동하는 TimeDistributed 레이어는 각 시간 단계에 대해 하나씩 10개의 독립적인 밀도 레이어를 생성합니다. 이러한 조밀한 레이어의 활성화는 Keras LSTM 모델의 최종 레이어에서 softmax로 설정됩니다.

또한, 나는 입력의 길이가 같은해야하는 이유에 대해 궁금해, 즉, 게시물에 500. 단일 샘플이 한 번에 모델에 공급되는 온라인 교육의 맥락에서 수행중인 경우 (배치 크기는 1), 샘플의 다양한 길이에 대한 우려가 없어야합니까? 즉, 각 샘플(패딩 없이 길이가 다양)과 대상은 모델을 차례로 학습하는 데 사용되며 다양한 길이에 대한 걱정이 없습니다.

POST CATEGORIES

Okategoriserade