Định nghĩa Markov chain là gì?
Markov chain là Chuỗi Markov. Đây là nghĩa tiếng Việt của thuật ngữ Markov chain - một thuật ngữ được sử dụng trong lĩnh vực kinh doanh.
Xem thêm: Thuật ngữ kinh doanh A-Z
Giải thích ý nghĩa
Chuỗi các sự kiện ngẫu nhiên (dựa trên xác suất thay vì điều chắc chắn), nơi tình trạng hiện tại của một biến hay hệ thống độc lập với tất cả các trạng thái quá khứ, ngoại trừ (hiện tại) hiện nay nhà nước. Chuyển động của cổ phiếu / giá cổ phiếu, và tăng trưởng hay suy giảm thị phần của một công ty, là những ví dụ của chuỗi Markov. Được đặt theo tên người phát minh ra phân tích Markov, Nga toán học Andrei Andreevich Markov (1856-1922). Còn được gọi là mô hình Markov. Xem thêm quá trình Markov.
Definition - What does Markov chain mean
Sequence of stochastic events (based on probabilities instead of certainties) where the current state of a variable or system is independent of all past states, except the current (present) state. Movements of stock/share prices, and growth or decline in a firm's market share, are examples of Markov chains. Named after the inventor of Markov analysis, the Russian mathematician Andrei Andreevich Markov (1856-1922). Also called Markov model. See also Markov process.
Source: Markov chain là gì? Business Dictionary