THƯ VIỆN TRƯỜNG ĐẠI HỌC HÀ NỘI
HANOI UNIVERSITY LIBRARY
THƯ VIỆN TRƯỜNG ĐẠI HỌC HÀ NỘI
HANOI UNIVERSITY LIBRARY
0
Đăng nhập
MENU
Giới thiệu
Đội ngũ cán bộ
Cơ cấu tổ chức
Định hướng phát triển
Tài nguyên và dịch vụ
Lịch sử
Góc thư viện
Ảnh thư viện
Videos thư viện
Nghiệp vụ thư viện
Dịch vụ
Mượn, trả tài liệu
Gia hạn tài liệu
Đặt mượn tài liệu
Đọc tại chỗ
Tư vấn, hỗ trợ thông tin
Cung cấp thông tin theo yêu cầu
Đào tạo người dùng tin
Phòng học nhóm
Tra cứu
Duyệt đề mục
Tìm theo đề mục
Tra cứu nâng cao
Tìm chuyên gia
Tra cứu toàn văn
Tra cứu liên thư viện
Tài liệu theo học phần
Tạp chí
Hỗ trợ
Gửi yêu cầu - Góp ý
HƯỚNG DẪN TRA CỨU TÀI LIỆU
Hướng dẫn - trợ giúp
Hướng dẫn tra cứu tạp chí điện tử
Hỏi đáp nhanh
Tải về
Diễn đàn
Bạn đọc
Đặt phòng
0
Đăng nhập
TRA CỨU
Duyệt đề mục
Tìm theo đề mục
Tra cứu nâng cao
Tìm chuyên gia
Tra cứu toàn văn
Tra cứu liên thư viện
Tài liệu theo học phần
Các bộ sưu tập
Skip Navigation Links.
Tất cả (59116)
Sách (42669)
Sách tham khảo tiếng Việt (5)
Văn học nghệ thuật (4)
Tài liệu môn học (4342)
Bài trích (5935)
Đề tài nghiên cứu (863)
Khoá luận (2778)
Luận văn (1477)
Báo - Tạp chí (426)
Luận án (84)
Kỷ yếu (524)
Bài viết khoa học (17)
Tạp chí (1)
Thư mục - Vốn tư liệu
Tất cả
Bài trích
Mạng Nơ-ron hồi quy
Bùi, Quốc Khánh.
Đại học Hà Nội,
2020
Hà Nội :
tr. 12-17
English
Recurrent Neural Networks
Mạng hồi quy
Neural Networks
Dữ liệu
Sequential Data
Mô tả
Marc
Tác giả CN
Bùi, Quốc Khánh.
Nhan đề
Mạng Nơ-ron hồi quy / Bùi Quốc Khánh.
Thông tin xuất bản
Hà Nội :Đại học Hà Nội,2020
Mô tả vật lý
tr. 12-17
Tóm tắt
Mạng hồi quy (RNN) thực hiện cùng một tác vụ cho tất cả các phần tử của một chuỗi với đầu ra phụ thuộc vào cả các phép tính trước đó. Nó có khả năng nhớ các thông tin được tính toán trước. Gần đây, mạng LSTM đang được chú ý và sử dụng khá phổ biến. Về cơ bản, mô hình của LSTM không khác mô hình truyền thống của RNN nhưng chúng sử dụng hàm tính toán khác ở các trạng thái ẩn. Vì vậy mà ta có thể truy xuất được quan hệ của các từ phụ thuộc xa nhau rất hiệu quả.
Tóm tắt
One major assumption for Neural Networks and in fact many other machine learning models is the independence among data samples. However, this assumption does not hold for data which is sequential in nature. One mechanism to account for sequential dependency is to concatenate a fixed number of consecutive data samples together and treat them as one data point, like moving a fixed size sliding window over data stream. Recurrent Neural Networks process the input sequence one element at a time and maintain a hidden state vector which acts as a memory for past information. They learn to selectively retain relevant information allowing them to capture dependencies across several time sreps, which allows them to utilize both current input and past information while making future predictions.
Thuật ngữ chủ đề
Recurrent Neural Networks-
Sequential Data
Thuật ngữ chủ đề
Mạng hồi quy-
Dữ liệu
Từ khóa tự do
Neural Networks
Từ khóa tự do
Dữ liệu
Từ khóa tự do
Sequential Data
Từ khóa tự do
Mạng hồi quy
Từ khóa tự do
Recurrent Neural Networks
Nguồn trích
Kỷ yếu hội thảo khoa học giáo viên Khoa Công nghệ thông tin- 5/2020
MARC
Hiển thị đầy đủ trường & trường con
Tag
Giá trị
000
00000nab#a2200000u##4500
001
63991
002
2
004
577B8429-B9BE-4E5A-81D3-D9445C5418BE
005
202112151006
008
211215s2020 vm eng
009
1 0
035
[ ]
|a
1456391740
039
[ ]
|a
20241130102335
|b
idtocn
|c
20211215100612
|d
huongnt
|y
20211214081658
|z
huongnt
041
[0 ]
|a
eng
044
[ ]
|a
vm
100
[0 ]
|a
Bùi, Quốc Khánh.
245
[1 0]
|a
Mạng Nơ-ron hồi quy /
|c
Bùi Quốc Khánh.
260
[ ]
|a
Hà Nội :
|b
Đại học Hà Nội,
|c
2020
300
[ ]
|a
tr. 12-17
520
[ ]
|a
Mạng hồi quy (RNN) thực hiện cùng một tác vụ cho tất cả các phần tử của một chuỗi với đầu ra phụ thuộc vào cả các phép tính trước đó. Nó có khả năng nhớ các thông tin được tính toán trước. Gần đây, mạng LSTM đang được chú ý và sử dụng khá phổ biến. Về cơ bản, mô hình của LSTM không khác mô hình truyền thống của RNN nhưng chúng sử dụng hàm tính toán khác ở các trạng thái ẩn. Vì vậy mà ta có thể truy xuất được quan hệ của các từ phụ thuộc xa nhau rất hiệu quả.
520
[ ]
|a
One major assumption for Neural Networks and in fact many other machine learning models is the independence among data samples. However, this assumption does not hold for data which is sequential in nature. One mechanism to account for sequential dependency is to concatenate a fixed number of consecutive data samples together and treat them as one data point, like moving a fixed size sliding window over data stream. Recurrent Neural Networks process the input sequence one element at a time and maintain a hidden state vector which acts as a memory for past information. They learn to selectively retain relevant information allowing them to capture dependencies across several time sreps, which allows them to utilize both current input and past information while making future predictions.
650
[1 0]
|a
Recurrent Neural Networks
|x
Sequential Data
650
[1 7]
|a
Mạng hồi quy
|x
Dữ liệu
653
[0 ]
|a
Neural Networks
653
[0 ]
|a
Dữ liệu
653
[0 ]
|a
Sequential Data
653
[0 ]
|a
Mạng hồi quy
653
[0 ]
|a
Recurrent Neural Networks
773
[ ]
|t
Kỷ yếu hội thảo khoa học giáo viên Khoa Công nghệ thông tin
|g
5/2020
890
[ ]
|a
0
|b
0
|c
0
|d
0