케라스 lstm 예제

stateful이 false(기본값)로 설정된 경우 Keras 설명서에 따르면 각 LSTM 노드 내의 상태가 예측 또는 학습을 위해 각 배치 후에 재설정된다는 것을 이해합니다. 예를 들어, 농구코트에 사람이 있는 장면이 영화에 있습니다. 우리는 미래의 프레임에서 농구 활동을 즉흥적으로 할 것입니다 : 달리고 점프하는 사람의 이미지는 아마 농구로 표시될 것이며, 앉아서 보는 사람의 이미지는 아마도 경기를 보는 관중일 것입니다. 팬더로 데이터를 로드하는 경우 DataFrame.tail()를 사용하여 데이터 집합의 마지막 n 레코드를 선택할 수 있습니다(예: 기능은 입력 변수입니다). 이 항공사 예제에서는 입력 변수가 하나만 있지만 창 메서드라고 하는 과거 시간 단계를 사용하여 여러 입력 변수를 고안할 수 있습니다. 일반적으로 여러 피쳐는 다변량 타임계입니다. 어떤 유형의 학습 구조를 제안하시겠습니까? 더 많은 데이터를 수집 / 생성해야 할 수도 있지만 파이썬과 딥 러닝 모두에서 새로운 것이고 다변량 ts -> 다중 레이블 분류에 대한 작은 실행 예제를 만드는 데 문제가 있습니다. 내 데이터는 N 패킷을 가지고, 각 패킷은 많은 기능 F (그들 중 하나는 시간입니다), 예를 들어 : f1 f2 f3 … 라벨 pkt1 2 3 3 0 pkt2 1 3 5 1 pkt3 2 2 1 pkt4 5 3 1 0 pkt5 5 3 2 1 …. 예: 시간 단계=2, 각 하위 시퀀스에는 2개의 행이 있습니다.

모양 후, 다음과 같은: [[2 3 3 0] [3 3 3 1]] [3 5 1] [2 3 2 1]] [2 3 3 2 1]] 또는 ] 또는: 별도: [[[[[2 3 3 0] [3 5 1]] [[2 3 2 1] [5 3 1]] 해당 입력 데이터에서 레이블을 분할하는 경우 시간 단계 = 1, 레이블이 모든 행과 일치하고 쉽게 얻을 수 있는지 확인합니다. 그러나 시간 단계 >1인 경우 각 하위 시퀀스(첫 번째 행 또는 2열)에 일치하기 위해 어떤 레이블이 선택됩니다. 당신은 내가 그 혼란을 취소 할 수 있습니까? (2 질문 : 겹치거나 분리? 많은 감사 시작으로 Keras 토큰화기를 참조하십시오 : https://keras.io/preprocessing/text/#tokenizer 나는 케라스에 내장 된 포함 층에 대한 질문이 있습니다. 나는 단어의 의미 적 유사성을 기반으로 작동하는 word2vec 모델로 단어 포함을 수행했습니다 – 같은 맥락에서 사람들은 더 유사합니다. Keras 포함 레이어가 w2v 모델을 따르고 있는지 또는 단어를 벡터로 매핑하는 자체 알고리즘이 있는지 궁금합니다. 어떤 의미체계에 따라 단어를 벡터에 매핑합니까? 벡터라는 단어는 이 자습서에서와 같이 별도로 학습하거나 Keras LSTM 네트워크를 학습하는 동안 학습할 수 있습니다. 다음 예제에서는 각 단어를 의미 있는 단어 벡터로 변환하기 위해 포함 레이어라고 하는 것을 설정합니다. 포함 레이어의 크기를 지정해야 합니다. 즉, 포함 레이어 크기가 250이면 각 단어는 [$x_1, x_2, x_3,ldots, x_{250}]과 같은 250길이 벡터로 표시됩니다. 나는 그것이 가능한지 여부에 대해 너무 많이 생각하기보다는 그것을 시도하는 것이 좋습니다.