RANGKUMAN RANTAI MARKOV - OPERASI RISET TEKNIK INDUSTRI
RANGKUMAN MATERI RANTAI MARKOV
TEKNIK INDUSTRI
Rantai markov
atau analisis markov adalah suatu teknik mateatika yang biasa digunakan untuk
melakukan pembuatan model (modelling) bermacam-macam sistem dan proses bisnis.
Teknik ini dapat digunakan untuk memperkirakan perubahan-perubahan di waktu
yang akan datang dalam dalam variabel-variabel dinamis atas dasar
perubahan-perubahan dari variabel-variabel dinamis tersebut di waktu yang lalu.
Teknik ini dapat juga digunakan untuk menganalisa kejadian-kejadian di
wkatu-waktu mendatang secara matematis.
Penerapan
rantai Markov mula-mula adalah pada ilmu-ilmu pengetahuan phisik dan
meteorologi. Analisis markov telah banyak digunakan untuk menganalisa tentang
perpindahan merk dalam pemasaran, perhitungan rekening-rekening, jasa-jasa
persewaan mobil, perencanaan penjualan, masalah-masalah persedian, pemeliharaan
mesin, antrian, perubahan harga pasar saham, dan administrasi rumah sakit.
Semuanya ini hanya beberapa contoh apliksi yang banyak dijumpai sekarang.
Sehingga pada makalah ini akan
dijelaskan konsep dasar dari analisis markov seperti probabilitas transisi, kondisi-kondisi
kedudukan tetap (steady state) dengan
menggunakan suatu contoh kasus perpindahan merk dalam pemasaran.
Rantai markov atau
analisis markov adalah suatu teknik mateatika yang biasa digunakan untuk
melakukan pembuatan model (modelling)
bermacam - macam sistem dan proses bisnis. Teknik ini dapat digunakan untuk
memperkirakan perubahan-perubahan di waktu yang akan datang dalam dalam
variabel-variabel dinamis atas dasar perubahan-perubahan dari variabel-variabel
dinamis tersebut di waktu yang lalu. Teknik ini dapat juga digunakan untuk
menganalisa kejadian-kejadian di waktu-waktu mendatang secara matematis.
Analisis Rantai Markov merupakan sebuah
teknik yang berhubungan dengan probabilitas akan state di masa mendatang
dengan menganalisis probabilitas saat ini (Haryadi Sarjono, 2007).
Analisis Rantai Markov ini dikembangkan oleh seorang ahli
Matematika Ruasia bernama Andrei A. Markov. Analisis Markov merupakan suatu
bentuk khusus dari model probabilistik yang lebih umum yang dinamakan stochastic
process, dimana analisis Rantai Markov yang dihasilkan adalah suatu
informasi probabilistik yang dapat digunakan untuk membantu pembuatan
keputusan.
Berdasarkan ruang keadaan dan ruang
parameternya Proses Markov dapat dikelompokkan menjadi proses markov dengan
ruang sampel diskrit dan proses Markov dengan ruang sampel kontinu.
Sebagai contoh, salah satu proses stokastik
dengan ruang sampel diskrit adalah banyaknya pengunjung yang datang kesuatu pertokoan pada hari ke-t. Dan
contoh proses stokastik dengan ruang sampel
kontinu adalah selang waktu antar kedatangan pengunjung kesuatu pertokoan pada waktu t sembarang.
2.1 Sejarah
Andrei andreevich
Markov ( 2 juni 1856- 20 juli, 1922) adalah seseorang fisikawan rusia. Dalam
usahanya untuk menjelaskan secara matematik gejalan alam yang di kenal dengan
gerak brown, ia menemukan sebuah
fakta yang kemudian dikenal sebagai rantai markov (Markov chain) atau
(1905-1907). Konstruksi matematik proses markov yang benar dengan
trajektori-trakjektori yang berkesinambungan pertamakali di lakukan oleh
N.Wiener pada tahun 1923. Sejalnjutnya, teori umum proses markov dikembangan
oleh A.N.KolMagorov,W.Feler,W.Doweblin,P.Levy, pada tahun 1930dan1940.
Temuan A.A Markov adalah : “ Untuk setiap
waktu t, ketika kejadian adalah Kt , dan seluruh kejadian
sebelumnnya adalah Kt ( j) , ..., Kt(j-n) yang terjadi dari
proses yanag diketahui, probabilitas seluruh kejadian yang akan datang Kt(j) hanya tergantung kepada kejadian kt(j-1)
dan tidak tergantung kepada kejadian-kejadian sebelumnya yaitu Kt(j-2) , Kt(j-3), ..., Kt(j-n).”
Gambaran mengenai rantai Markov ini kemudian dituangkan ke
dalam gerakan-gerakan dari beberapa variabel di masa yang akan datang bisa
diprediksi berdasarkan gerakan-gerakan variabel tersebut di masa lalu. Kt4 di pengaruhi oleh
kejadian Kt3 , Kt3 dipengaruhi oleh kejadian
Kt2 , dan demikian
seterusnya di mana perubahan ini terjadi karena peranan probabilitas
transisional. Kejadian Kt2 misalnya,
tidak akan mempengaruhi kejadian Kt4
. Katrakteristik model seperti ini telah memungkinkan eksplorasi
penerapan di berbagai bidang, misalnya :
1965 Menentukan
jumlah pom bensin yang harus dibuat oleh perusahaan minyak pada suatu daerah
pemasaran. [Philip H. Harting and James L.
Fisher]
1966 Menetukan
jumlah optimal panggilan telepon yang harus dibuat oleh seorang salesman agar dapat menghasilkan untung,
sebelum ia memutuskan bahwa tiap telepon
yang ia buat berikutnya adalah sia-sia. [A Shuman]
1972 Mengevaluasi
strategi penentuan harga [John R. Nevin]
1973 Menganalisa
perilaku konsumen dan pengaruh dari kesetiaan terhadap merek dengan tujuan
meningkatkan segmentasi pasar [Jim Wong]
1973 Menganalisa
fluktuasi biaya keamanan [T. M. Tyun]
1973 Menentukan
kebutuhan tenaga kerja [Young and Neilson]
2.2 Proses Analisis Markov
Terdapat 3 prosedur utama untuk dilakukan, yaitu :
2.2.1
Menyusun Matriks Probabilitas Transisi
2.2.2
Menghitung Probabilitas suatu kejadian di waktu
yang akan datang
2.2.3
Menentukan kondisi steady state
2.3 Matriks Probabilitas Transisi
Probabilitas Transisi adalah
perubahan dari satu status ke status yang lain pada periode (waktu) berikutnya
dan merupakan suatu proses random yang dinyatakan dalam probabilitas. Untuk
lebih jelasnya dapat dilihat pada Tabel 1 berikut ini :
Dari Keadaan Ke:
|
Pindah ke keadaan ke:
|
|||||
1
|
2
|
...
|
j
|
...
|
n
|
|
1
|
p11
|
p12
|
...
|
p1j
|
...
|
p1
|
2
|
p21
|
p22
|
...
|
p2j
|
...
|
n
|
3
|
pi1
|
pi2
|
...
|
pij
|
...
|
p2n
|
i
|
pn1
|
pn2
|
...
|
pnj
|
...
|
pin
|
n adalah jumlah keadaan dalam proses dan pij adalah kemungpkninn an
transisi dari keadaan saat i ke keadaan j. Jika saat ini berada pada keadaan i
maka baris i dari tabel di atas berisi angka-angka pi1, pi2, , pin merupakan
kemungkinan berubah ke keadaan berikutnya. Oleh karena angka tersebut
melambangkan kemungkinan, maka semuanya melupakan bilangan non negatif dan
tidak lebih dari satu. Secara matematis :
0 < pij < 1 i = 1, 2, ....., n
Σ
pij = 1 i = 1, 2, ....., n
2.4 Menghitung Probabilitas Suatu
Kejadian Di Waktu Yang Akan Datang
2.4.1
Probabilitas Tree
Probabilitas Tree merupakan cara
yang mudah untuk menggambarkan sejumlah terbatas transisi dari suatu proses
Markov.
2.4.2
Pendekatan Matriks
Ada kalanya kita harus mencari
probabilitas pada periode yang sangat besar, misalkan periode hari ke-9, ke-10
dan seterusnya, akan sangat menyulitkan dan membutuhkan media penyajian yang
khusus jika kita menggunakan Probabilitas Tree. Permasalahan tersebut dapat
diselesaikan dengan menggunakan metode Pendekatan Matriks Probabilitas.
2.5 Menentukan Kondisi Steady State
Dalam banyak kasus, proses
markov akan menuju pada Steady State (keseimbangan) artinya setelah proses
berjalan selama beberapa periode, probabilitas yang dihasilkan akan bernilai
tetap, dan probabilitas ini dinamakan Probabilitas Steady State
Komentar
Posting Komentar