BAB II TINJAUAN PUSTAKA
2.1
Pengertian Rantai Markov
Model Proses Markov dikembangkan oleh seorang ahli Rusia bernama A.A. ( Markov Chains) Chains) adalah suatu teknik Markov, pada tahun 1906. Rantai Markov ( Markov matematika yang biasa digunakan untuk melakukan pembuatan model (modelling ( modelling ) bermacam – macam macam sistem dan proses bisnis. Teknik ini dapat digunakan untuk memperkirakan perubahan – perubahan – perubahan perubahan diwaktu yang akan datang dalam variabel – variabel dinamis atas dasar perubahan – perubahan dari variabel – variabel dinamis tersebut di waktu yang lalu. Teknik ini dapat juga digunakan untuk menganalisa kejadian – kejadian – kejadian kejadian di waktu – waktu – waktu waktu mendatang secara sistematis. Penerapan Proses Markov mula – mula adalah pada ilmu – ilmu pengetahuan fisik dan meteorologi. Teknik ini mula – mula digunakan untuk menganalisa dan memperkirakan perilaku partikel – pertikel gas dalam suatu wadah (container (container ) tertutup serta meramal keadaan cuaca. Sebagai suatu peralatan riset operasi dalam pengambilam keputusan manajerial. Proses Markov telah banyak diterapkan untuk menganalisa tentang perpindahan merek ( brands witching ) dalam pemasaran, perhitungan rekening – rekening, jasa – jasa persewaan mobil, perencanaan penjualan, masalah – masalah persediaan, pemeliharaan mesin, antrian, perubahan harga pasar saham, dan administrasi rumah sakit. Semuanya ini hanya beberapa contoh aplikasi yang banyak dijumpai sekarang.
LABORATORIUM OPTIM ASI ASI DAN STATI STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
Proses stokastik X(t) adalah aturan untuk menentukan fungsi X(t, x) untuk setiap . Jadi proses stokastik adalah keluarga fungsi waktu yang tergantung pada parameter ξ atau secara ekivalen fungsi t dan ξ. X(t) adalah proses keadaan diskret bila harga-harganya bulat. Bila tidak demikian X(t) adalah proses kontinu. Pada tahun 1906, A.A. Markov seorang ahli matematika dari Rusia yang merupakan murid Chebysev mengemukakan teori ketergantungan variabel acak proses acak yang dikenal dengan proses Markov. Proses Markov adalah proses stokastik masa lalu tidak mempunyai pengaruh pada masa yang akan datang bila masa sekarang diketahui. Untuk dapat menerapkan analisa rantai Markov kedalam suatu kasus, ada beberapa syarat yang harus dipenuhi : 1. Jumlah probabilitas transisi untuk suatu keadaan awal dari system sama dengan 1. 2. Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam system. 3. Probabilitas transisi konstan sepanjang waktu. 4. Kondisi merupakan kondisi yang independent sepanjang waktu. Dalam realita, penerapan analisa Markov bias dibilang cukup terbatas karena sulit menemukan masalah yang memenuhi semua sifat yang diperlukan untuk analisa Markov, terutama persyaratan bahwa probabilitas transisi harus konstan sepanjang waktu ( probabilitas transisi adalah probabilitas yang terjadi dalam pergerakan perpindahan kondisi dalam system ). Penerapan Proses Markov mula – mula adalah pada ilmu – ilmu pengetahuan fisik dan meteorologi. Teknik ini mula – mula digunakan untuk
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
menganalisa dan memperkirakan perilaku partikel – pertikel gas dalam suatu wadah (container ) tertutup serta meramal keadaan cuaca. Sebagai suatu peralatan riset operasi dalam pengambilam keputusan manajerial. Proses Markov telah banyak diterapkan untuk menganalisa tentang perpindahan merek (brands witching ) dalam pemasaran, perhitungan rekening – rekening, jasa – jasa persewaan mobil, perencanaan penjualan, masalah – masalah persediaan, pemeliharaan mesin, antrian, perubahan harga pasar saham, dan administrasi rumah sakit. Semuanya ini hanya beberapa contoh aplikasi yang banyak dijumpai sekarang.Proses stokastik X(t) adalah aturan untuk menentukan fungsi X(t, x) untuk setiap . Jadi proses stokastik adalah keluarga fungsi waktu yang tergantung pada parameter ξ atau secara ekivalen fungsi t dan ξ. X(t) adalah proses keadaan diskret bila harga-harganya bulat. Bila tidak demikian X(t) adalah proses kontinu. Pada tahun 1906, A.A. Markov seorang ahli matematika dari Rusia yang merupakan murid Chebysev mengemukakan teori ketergantungan variabel acak proses acak yang dikenal dengan proses Markov.
2.2
Dasar Teori Model Rantai Markov
Ada beberapa prosedur dalam model rantai markov, antara lain : 1. Menyusun Matriks Probabilitas Transisi.
Untuk menggambarkan proses markov, akan disajikan suatu contoh masalah tentang kegiatan – kegiatan pemilihan merek dan peramalan probabilitas transisi yang kemungkinan dilakukan para konsumen, yaitu pergantian dari satu merek ke merek lain. Anggapan bahwa sampel konsumen terdiri dari kombinasi 1000
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
responden yang tersebar pada 4 merek : A, B, C, D. Anggapan selanjutnya adalah bahwa sampel tersebut telah mewakili keseluruhan kelompok dalam kesetiaannya terhadap suatu merek dan pola pergantian dari satu merek ke merek lain. Konsumen berpindah dari satu merek ke merek lain dapat karena pengiklanan, promosi khusus, harga, ketidakpuasan, dan lain sebagainya.
Tabel 2.1 Pertukaran – pertukaran pelanggan untuk satu tahun Periode
pertama Perubahan selama periode
Periode
kedua
Merek jumlah pelanggan
Mendapatkan
Kehilangan jumlah pelanggan
A
220
50
45
225
B
300
60
70
290
C
230
25
25
230
D
250
40
35
255
1000
175
175
1000
Sebelum membicarakan “komponen yang tidak berpindah“ ( switching component ), perhatian dipusatkan pada “hard core component “ atau kelompok yang tidak berpindah merek. Ini memerlukan perhitungan Probabilitas Transisi untuk keempat merek. Probabilitas Transisi didifinisikan sebagai probabilitas suatu merek tertentu (penjual) akan tetap menguasai para pelanggannya. Dari tabel diatas diuraikan pula, selain informasi tentang jumlah “kehilangan“ ke merek para pesaing juga informasi jumlah “mendapatkan“ langganan dari merek – merek saingan. Meskipun kita memiliki informasi pola perpindahan merek langganan dalam tabel, tetapi tidak ada perubahan dalam
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
jumlah merek dan langganan total. Hal ini merupakan karakteristik dasar proses – proses Markov, yaitu serangkaian perubahan progresif dan saling ketergantungan. First-Order dan Higher-Order Analisa Markov Bagian sebelumnya membahas " hard core component " dan " switching component " para pelanggan dalam hubungannya dengan suatu merek versus merek – merek lain. Anggapan dasar adalah bahwa para pelanggan tidak mengubah dari satu merek ke merek lain secara acak, disamping itu mereka membeli merek – merek pada waktu yang akan datang yang mencerminkan pilihan – pilihan mereka yang dibuat diwaktu yang lalu. Proses Markov dapat berbeda order. First-order hanya mempertimbangkan pilihan – pilihan merek yang dibuat selama suatu periode untuk penentuan probabilitas pilihan dalam periode berikutnya. Second-order analisa Markov menganggap pilihan – pilihan untuk suatu merek tertentu dalam periode berikutnya tergantung pada pilihan – pilihan merek yang dibuat oleh para pelanggan selama dua periode terakhir. Begitu juga untuk third-order , proses Markov yang digunakan untuk meramal perilaku periode berikutnya terhadap merek – merek tertentu berdasarkan pola pemilihan merek para pelanggan selama tiga periode terakhir. Banyak riset pemasaran telah membuktikan bahwa penggunaaan anggapan first-order untuk maksud – maksud peramalan adalah valid. 2. Menghitung Kemungkinan M arket Share di waktu yang akan datang
Manajemen akan memperoleh manfaat bila mereka mengetahui berapa market share-nya di periode waktu yang akan datang. Perhitungan market share yang mungkin untuk merek A, B, C, dan D dalam periode kedua dapat diperoleh
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
dengan mengalikan matriks probabilitas transisi dengan market share pada periode pertama. Setelah pemecahan untuk periode kedua, periode ketiga dapat ditentukan dengan dua cara. Metode pertama adalah kelanjutan pendekatan perhitungan terdahulu, mengalihkan matriks probabilitas transisi mula – mula dengan market share periode kedua yang akan menghasilkan market share untuk periode ketiga. Metode kedua adalah mengkuadratkan matriks probabilitas transisi untuk jumlah periode yang diinginkan dan kemudian mengalikan matriks yang dihasilkan dengan market share awal. Market share baru untuk periode ketiga dengan mempergunakan metode – metode tersebut ditunjukkan berikut ini. a. Perhitungan Metode Pertama Perkalian matriks digunakan lagi untuk mencari market share setiap merek. Kelebihan dari metode ini adalah perubahan yang terjadi dari periode ke periode dapat diamati. Bagaimanapun juga, manajemen mungkin memerlukan informasi market share merek tertentu di waktu yang akan datang. Bila hal ini hanya merupakan kasus, metode kedua akan lebih disukai. Metode ini pada dasarnya menaikkan manfaat matriks probabilitas transisi sebagai cara untuk langsung menunjukkan suatu jumlah periode di waktu yang akan datang. b. Perhitungan Metode Kedua Perkalian matriks digunakan lagi. Pengkuadratan matriks probabilitas transisi berarti bahwa probabilitas baru pada "retention" , “mendapatkan“, dan “kehilangan“ harus diperhitungkan. Matriks probabilitas transisi yang telah dikuadratkan kemudian dikalikan dengan market share awal. 3. Menentukan Kondisi-Kondisi Ekuilibrium
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
Kondisi ekuilibrium tercapai hanya bila tidak ada pesaing yang mengubah matriks probabilitas transisi. Dalam keadaan ekuilibrium pertukaran para pelanggan berkenaan dengan
“retention“,
“mendapatkan“, dan “kehilangan“ akan
statik. Masalahnya, berapa besarnya market share ekuilibrium ? Beberapa
matriks
probabilitas
transisi
dapat
digunakan
untuk
menggmbarkan kondisi – kondisi ekuilibrium. Gambaran yang lebih umum terjadi adalah bila tidak ada satu perusahaan pun yang mendapatkan terus seluruh pelanggannya, yang berarti kondisi ekulibrium akhir tercapai berdasarkan matriks probabilitas transisi yang tetap. Penyelesaian Persamaan-Per samaan Secara Simul tan
Sebuah perusahaan mempunyai dua pesaing dalam suatu segmen pasar dunia bisnisnya. Suatu cara yang efektif untuk membuktikan bahwa telah tercapai kondisi ekuilibrium adalah dengan mengalikan matriks probabilitas transisi dengan market share ekuilibrium. Penyelesaian dengan D eter mi nan
Penyelesaian diatas kadang-kadang lebih mudah dengan menggunakan determinan-determinan.
Dengan
menggunakan
aturan
Cramer
untuk
menggembangkan suatu determinan, langkah pertama adalah mengembangkan determinan pembilang dengan kolom pertamanya. Ingat bahwa dalam determinan 4 x 4 bila suatu baris dan kolaom dihilangkan, akan tetap ada determinan 3 x 3 dalam setiap masalah. Analisa model Proses Markov telah berkembang penggunaannya sebagai peralatan pengambilan keputusan manajemen dalam banyak bidang bisnis. Beberapa aplikasi model Proses Markov yang banyak dijumpai sekarang ini
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
mencakup model – model kebijaksanaan pengendalian kredit optimal, perilaku harga pasar saham, model keputusan persedian, penggantian mesin – mesin, scheduling penerimaan di rumah sakit dan program dinamis yang diterapkan pada beberapa perusahaan manufacturing .
o
Proses Markov
Sebuah proses Markov terdiri dari suatu himpunan obyek dan suatu himpunan keadaan yang sedemikian rupa sehingga : 1. Pada sebarang waktu yang diketahui, tiap – tiap obyek harus berada dalam satu keadaan tertentu (obyek – obyek yang berbeda tidak perlu berada dalam keadaan yang berbeda). 2. Probabilitas untuk sebuah obyek berpindah atau transisi dari satu keadaan ke keadaan lainnya (yang mungkin sama seperti keadaan pertama) dalam satu selang waktu tertentu hanyalah bergantung pada kedua keadaan itu. Bilangan – bilangan bulat positif dari selang waktu setelah saat ketika proses perpindahan dimulai menyatakan tahap – tahap proses, yang jumlahnya dapat berhingga atau tak berhingga. Jika jumlah keadaannya berhingga atau tak berhingga dapat dibilang (countably infinite), maka proses markov yang bersangkutan suatu rantai Markov ( Markov chain). Suatu rantai Markov berhingga adalah suatu rantai markov yang memiliki jumlah keadaan yang berhingga. Probabilitas untuk berpindah dari keadaan i ke keadaan j dalam satu selang waktu dinyatakan dengan pij. Untuk suatu rantai Markov dengan N – keadaan (Di mana N adalah suatu bilangan bulat positif), maka matriks P = [ pij] yang
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
berukuran N N adalah matriks stokastik atau matriks transisi yang berkaitan dengan proses itu. Jumlah nilai dari elemen – elemen dalam tiap – tiap baris matriks P ini haruslah satu (syarat perlu). Setiap matriks stokastik memiliki satu nilai eigen (eigen value) yang nilainya 1 (dapat pula berganda) dan nilai mutlak dari nilai eigen yang lainnya tidak ada yang lebih besar daripada 1.
o
Pangkat Dari M atri ks Stokastik
Pangkat ke-n dari sebuah matriks P dengan P n [ P ij(n)]. Jika P adalah matriks stokastik, maka P ij(n)menyatakan probabilitas bahwa sebuah obyek bertransisi dari keadaan i ke keadaan j dalam n-buah selang waktu. Dari sini kita peroleh bahwa Pn adalah juga suatu matriks stokastik. proporsi dari obyek – obyek dalam keadaan i pada akhir selang waktu ke-n dengan xi(n) dan dinamakan
(n)
X
[ x1(n), x2(n) , . . . ., x N (n)]
Sebagai vektor distribusi untuk akhir dari selang waktu ke-n, maka
X(0) = [ x1(0), x2(0) , . . . ., x N (0)]
Nyatakan proporsi dari obyek – obyek dalam masing – masing keadaan pada awal proses. Hubungan antara X(n) dan X(0) diberikan oleh persamaan
X(n) = X(0) Pn
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
Dalam menuliskan persamaan diatas secara implisit kita mengidentifikasikan probabilitas pij dengan proporsi dari obyek – obyek dalam keadaan i yang berpindah (bertransisi) keadaan j dalam selang waktu.
o
M atriks Er godik
Sebuah matriks stokastik P adalah ergodik jika
lim P
n
n
ada yaitu, jika tiap –
tiap pij (n) menuju sebuah limit jika n . Matriks ini diberi nama L, yang adalah juga suatu matriks stokastik. Komponen – komponen dari X (), yang didefinisikan oleh persamaan adalah distribusi – distribusi keadaan limit. Mereka menyatakan proporsi – proporsi aproksimasi dari obyek – obyek dalam berbagai keadaan suatu rantai Markov setelah suatu jumlah selang waktu yang besar. Sebuah matriks stokastik adalah ergodik jika dan hanya jika satu – satunya nilai diri yang besarnya 1 adalah 1 sendiri, dan jika = 1 memiliki gandaan (multiplicity) k , maka terdapat k buah vektor eigen (kiri) bebas linearyang berkaitan dengan nilai eigen ini. Jika setiap nilai eigen dari suatu matriks P menghasilkan sejumlah vektor eigen (kiri) bebas linear yang jumlahnya sama dengan gandaannya, maka terdapat suatu matriks tak singular ( nonsingular ) M, yang baris – barisnya adalah vektor eigen dari P, sedemikian rupa sehingga D -1 MPM adalah suatu matriks diagonal. Elemen – elemen diagonal dari D adalah
niali eigen dari P, yang berulang sesuai dengan gandaannya. Kita mengikuti perjanjian bahwa semua vektor diri yang berhubungan dengan = 1 ditempatkan di atas semua vektor eigen lainnya di dalam M. Maka untuk suatu matriks ergodik P berukuran N N yang dapat diagonalkan yang LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
memiliki gandaan = 1 sebanyak k , matriks limit L dapat dihitung sebagai berikut :
L = M-1
lim D
n
n
1 M = M-1
1 . . . 1 0 . . .
0
Matriks diagonal di sebelah kanan memiliki nilai 1 sebanyak k dan 0 sebanyak (N – k) dalam diagonal utamanya.
o
M atri ks Reguler
Sebuah matriks stokastik adalah reguler jika salah satu pangkatnya hanya mengandung elemen – elemen positif. Jika suatu matriks stokastik adalah reguler, maka nilai dirinya yang bernilai 1 mempunyai gandaan paling banyak satu, dan semua nilai eigennya yang lain memenuhi ketidaksamaan i < 1. Dan sebuah matriks reguler adalah ergodik. Jika P reguler dengan matriks limit L, maka baris yang satu dan yang lainnya dari matriks L ini identik, dan masing – masingnya merupakan vektor diri kiri unik dari P yang berkaitan dengan = 1 dan hasil jumlah dari semua komponennya sama dengan satu. Namakan vektor eigen ini dengan E1. Maka dari persamaan langsung kita peroleh bahwa jika P reguler, maka :
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
()
X
= E1
Tanpa memperhatikan distribusi awal X(0).
Proses Markov Rantai Markov, merupakan state diskrit proses Markov, adalah proses stochastic X(t) dengan state S0, S1, ... dan lagi probabilitas pada waktu, tk+1 pada state Si hanya tergantung pada waktu state tk untuk setiap rangkaian waktu instan t1, t2, ... , tk+1 dimana t1 < t2 < ... < tk+1.
Kita nyatakan proses dalam state Shi pada waktu t1 j ika X(t1) = hi, hi menjadi integer yang tidak negatif. Kemudian definisi di atas dapat ditulis :
Hubungan ini dikenal dengan nama waktu kontinyu properti Markov dan menetapkan
waktu-kontinyu
rantai
Markov.
Istilah
waktu
kontinyu
mengacu pada fakta transisi state yang diperbolehkan untuk mengambil tempat pada setiap poin waktu. Jika kita membatasi transisi untuk terjadi hanya pada waktu diskrit instan, akan menunjukkan oleh tanda waktu 1, 2, ... k, ... kemudian kita dapat mendefinisikan waktu kontinyu properti Markov untuk proses stochastic Xk sebagai : LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4
Rangkaian stochastic yang akan memenuhi properti waktu dikrit. Untuk semua integer positif k dan semua kemungkinan state-nya disebut waktu diskrit rantai Markov. Pada rantai tersebut probabilitas dari transisi dari state Si ke state Sj pada waktu k dapat ditulis sebagai :
Properti Markov membuat hal tersebut menjadi mungkin untuk dapat membuat spesifikasi hubungan statistik antar state dalam matriks P(k), yaitu matriks transisi probabilitas. Jika probabilitas transisi tidak tergantung waktu, kita dapat mengindikasikannya dengan pij, dan rantai tersebut dikatakan rantai homogen. State network didefinisikan sebagai jumlah transaksi yang sedang berada di dalam jaringan dan didesain sebagai Sn untuk state jaringan dengan populasi n. urutan perubahan state jaringan ini disebut rantai Markovian, misalnya state (S1, S2, S3, ... , Sn) rantai Markovian.
LABORATORIUM OPTIM ASI DAN STATI STI K INDUSTRI M ODUL 5 (RANTAI MARKOV) RABU 1 / GROUP 4