안녕. 나는 항상 당신의 좋은 글을 참조하십시오. 나는 섹션 2 예제에 약간의 오타가 있다고 생각합니다. 제 1 시퀀스는 [3,1,2,3,3]이고 두 번째 시퀀스는 [4,1,2,3,4]입니다. 첫 번째 시퀀스의 추론 예제 1 -> 2, 2 -> 3은 정확하지만 두 번째 시퀀스는 1 -> 2, 2 -> 3과 동일합니다. 첫 번째 시퀀스와 두 번째 시퀀스 간의 차이를 표시하는 것이 목표라면 첫 번째 시퀀스의 2-> 3, 3-> 3과 두 번째 시퀀스의 2-> 3, 3-> 4를 비교하는 것이 올바른 예라고 생각합니다. 나는 오해 했을 수 있습니다., 하지만 그것은 도움이 되는 경우 코멘트를 남길 거 야. 친애하는 제이슨 박사님, 저는 py3.4.4에서 3.6으로 전환할 것입니다. 나는 lstm 예를 시도하는 또 다른 시도가 있었다. 결과: python3.4.4 및 텐서플로우(파이썬 =3.5의 경우)를 제외한 다른 모든 관련 패키지가 업데이트되었습니다. 파이썬 쉘 (c:> 파이썬 c:python34lstmexample2.py`) 또는 유휴(exec(열기(`c:python34lstmexample2.py`)))는 동일한 출력을 생성했으며, 예를 들어 첫 번째 예제와 함께 “ValueError”를 예로 들며 trainX(trainX[0])의 첫 번째 타임스텝을 취하는 경우 모델은 t+1(trainX[1])이 무엇인지 예측하려고 하지 는 않지만 특정 타임스텝(trainX[0])에서 모델에 맞는 것으로 생각되는 것을 모방합니다.

trainX[1]와 동일하게 예측은 trainX[2]의 예측이 아니라 trainX[1]에서 추측입니다… 따라서 게시물의 그래프 (위에서 언급 한 대로 업데이트해야 하는)는 미래 지향적인 것처럼 보이지만 코드를 실행하면 실제로 예측이 t +look_back으로 이동한 그래프가 생성됩니다. 단어의 시퀀스를 감안할 때 우리는 이전 단어를 주어진 각 단어의 확률을 예측할 수 있습니다. 언어 모델을 사용하면 높은 확률의 문장이 일반적으로 정확하기 때문에 기계 번역에 중요한 입력인 문장의 가능성을 측정할 수 있습니다. 다음 단어를 예측할 수 있는 부작용은 생성 모델을 얻게 되어 출력 확률에서 샘플링하여 새 텍스트를 생성할 수 있다는 것입니다. 그리고 우리의 교육 데이터가 무엇인지에 따라 우리는 모든 종류의 물건을 생성 할 수 있습니다. 언어 모델링에서 입력은 일반적으로 단어 의 시퀀스 (예를 들어 하나의 핫 벡터로 인코딩) 및 우리의 출력은 예측 된 단어의 시퀀스입니다. 네트워크를 교육할 때 단계의 출력이 실제 다음 단어가 되기를 원하기 때문에 설정했습니다. 어떤 책이 타임 시리즈 커라가있는 완전한 예제 / 코드를 제공합니까? 앞으로의 기간을 예측하고 다른 예측 변수를 추가하려고 합니까? 그것은 달성 할 수 있습니까? 예제는 내 설정에서 잘 실행 -하지만 난 약간 다른 결과 받고 있는 것 같다.

안녕하세요 브라운리 박사, 나는 시간 단계와 윈도우 방법의 차이에 대한 질문이 있습니다. 유일한 차이점은 모델에 공급하는 데이터의 모양이라는 것을 이해하면 맞습니까? 그렇다면 시간 단계 방법이 더 잘 작동하는 이유를 직관으로 줄 수 있습니까? 나는 두 개의 시퀀스가있는 경우 (예를 들어, 나는 2 시끄러운 신호가있는 경우, 다른 것보다 하나의 시끄러운), 나는 시퀀스를 예측하기 위해 둘 다 사용하고, 어떤 방법이 더 낫다고 생각하십니까? 이 검사를 수행하면 입력 데이터가 x 배열로 사용됩니다. 소비된 데이터 인덱스는 이해하기 가 매우 간단합니다 – 현재 인덱스-plus-num_steps 단어 수에 대한 현재 인덱스입니다. 다음으로, 임시 y 변수는 거의 같은 방식으로 작동-유일한 차이점은 시작 점 및 데이터 소비의 끝점이 1 (즉, + 1)에 의해 진행 됩니다. 이것이 혼란스러울 경우, 위에서 설명한 “고양이가 매트 등에 앉았다”를 참조하십시오. RNN의 또 다른 놀라운 응용 프로그램은 기계 번역입니다.