This is default featured post 1 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.This theme is Bloggerized by Lasantha Bandara - Premiumbloggertemplates.com.

This is default featured post 2 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.This theme is Bloggerized by Lasantha Bandara - Premiumbloggertemplates.com.

This is default featured post 3 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.This theme is Bloggerized by Lasantha Bandara - Premiumbloggertemplates.com.

This is default featured post 4 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.This theme is Bloggerized by Lasantha Bandara - Premiumbloggertemplates.com.

This is default featured post 5 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.This theme is Bloggerized by Lasantha Bandara - Premiumbloggertemplates.com.

Kamis, 22 Desember 2016

Algoritma dan Utilitas dalam Pohon Keputusan

ALGORITMA C4.5

Salah satu algoritma induksi pohon keputusan yaitu ID3 (Iterative Dichotomiser 3). ID3 dikembangkan oleh J. Ross Quinlan. Dalam prosedur algoritma ID3, input berupa sampel training, label training dan atribut. Algoritma C4.5 merupakan pengembangan dari ID3. Sedangkan pada perangkat lunak open source WEKA mempunyai versi sendiri C4.5 yang dikenal sebagai J48.
Algoritma C4.5
Algoritma C4.5
Pohon dibangun dengan cara membagi data secara rekursif hingga tiap bagian terdiri dari data yang berasal dari kelas yang sama. Bentuk pemecahan (split) yang digunakan untuk membagi data tergantung dari jenis atribut yang digunakan dalam split. Algoritma C4.5 dapat menangani data numerik (kontinyu) dan diskret. Split untuk atribut numerik yaitu mengurutkan contoh berdasarkan atribut kontiyu A, kemudian membentuk minimum permulaan (threshold) M dari contoh-contoh yang ada dari kelas mayoritas pada setiap partisi yang bersebelahan, lalu menggabungkan partisi-partisi yang bersebelahan tersebut dengan kelas mayoritas yang sama. Split untuk atribut diskret mempunyai bentuk value (A) ε dimana ⊂ domain(A).
Jika suatu set data mempunyai beberapa pengamatan dengan missing value yaitu record dengan beberapa nilai variabel tidak ada, Jika jumlah pengamatan terbatas maka atribut dengan missing value dapat diganti dengan nilai rata-rata dari variabel yang bersangkutan.[Santosa,2007]
Untuk melakukan pemisahan obyek (split) dilakukan tes terhadap atribut dengan mengukur tingkat ketidakmurnian pada sebuah simpul (node). Pada algoritma C.45 menggunakan rasio perolehan (gain ratio). Sebelum menghitung rasio perolehan, perlu menghitung dulu nilai informasi dalam satuan bits dari suatu kumpulan objek. Cara menghitungnya dilakukan dengan menggunakan konsep entropi.
Entropy
adalah ruang (data) sampel yang digunakan untuk pelatihan, p+ adalah jumlah yang bersolusi positif atau mendukung pada data sampel untuk kriteria tertentu dan p- adalah jumlah yang bersolusi negatif atau tidak mendukung pada data sampel untuk kriteria tertentu. ntropi(S) sama dengan 0, jika semua contoh pada S berada dalam kelas yang sama. Entropi(S) sama dengan 1, jika jumlah contoh positif dan negative dalam S adalah sama. Entropi(S) lebih dari 0 tetapi kurang dari 1, jika jumlah contoh positif dan negative dalam S tidak sama [Mitchell,1997].Entropi split yang membagi dengan record menjadi himpunan-himpunan S1 dengan n1 baris dan S2 dengan n2 baris adalah :
Kemudian menghitung perolehan informasi dari output data atau variabel dependent yang dikelompokkan berdasarkan atribut A, dinotasikan dengan gain (y,A). Perolehan informasi, gain (y,A), dari atribut A relative terhadap output data adalah:
nilai (A) adalah semua nilai yang mungkin dari atribut A, dan yc adalah subset dari y dimana A mempunyai nilai c. Term pertama dalam persamaan diatas adalah entropy total dan term kedua adalah entropy sesudah dilakukan pemisahan data berdasarkan atribut A.
Untuk menghitung rasio perolehan perlu diketahui suatu term baru yang disebut pemisahan informasi (SplitInfo). Pemisahan informasi dihitung dengan cara :
split
bahwa S1 sampai Sc adalah subset yang dihasilkan dari pemecahan dengan menggunakan atribut A yang mempunyai sebanyak nilai. Selanjutnya rasio perolehan (gain ratio) dihitung dengan cara :

Contoh Aplikasi

CREDIT RISK

Berikut ini merupakan contoh dari salah satu kasus resiko kredit (credit risk) yang menggunakan decision tree untuk menentukan apakah seorang potential customer dengan karakteristik savingasset dan income tertentu memiliki good credit risk atau bad credit risk.
Dapat dilihat pada gambar tersebut, bahwa target variable dari decision tree tersebut atau variable yang akan diprediksi adalah credit risk dengan menggunakan predictor variable : saving, asset, dan income. Setiap nilai atribut dari predictor variable akan memiliki cabang menuju predictor variable selanjutnya, dan seterusnya hingga tidak dapat dipecah dan menuju pada target variable.
Penentuan apakah diteruskan menuju predictor variable (decision node) atau menuju target variable (leaf node) tergantung pada keyakinan (knowledge) apakah potential customer dengan nilai atribut variable keputusan tertentu memiliki keakuratan nilai target variable 100% atau tidak. Misalnya pada kasus di atas untuk saving medium, ternyata knowledge yang dimiliki bahwa untuk seluruh potential customer dengan saving medium memiliki credit risk yang baik dengan keakuratan 100%. Sedangkan untuk nilai low asset terdapat kemungkinan good credit risk dan bad credit risk.
Jika tidak terdapat pemisahan lagi yang mungkin dilakukan, maka algoritma decision tree akan berhenti membentuk decision node yang baru. Seharusnya setiap branches diakhiri dengan “pure” leaf node, yaitu leaf node dengan target variable yang bersifat unary untuk setiap records pada node tersebut, di mana untuk setiap nilai predictor variable yang sama akan memiliki nilai target variable yang sama. Tetapi, terdapat kemungkinan decision node memiliki “diverse” atributes, yaitu bersifat non‐unary untuk nilai target variablenya, di mana untuk setiap record dengan nilai predictor variable yang sama ternyata memiliki nilai target variable yang berbeda. Kondisi tersebut menyebabkan tidak dapat dilakukan pencabangan lagi berdasarkan nilai predictor variable. Sehingga solusinya adalah membentuk leaf node yang disebut “diverse” leaf node, dengan menyatakan level kepercayaan dari diverse leaf node tersebut. Misalnya untuk contoh data berikut ini :
Dari training data tersebut kemudian disusunlah alternatif untuk candidate split, sehingga setiap nilai untuk predictor variable di atas hanya membentuk 2 cabang, yaitu sebagai berikut:
Kemudian untuk setiap candidate split di atas, dihitung variabel‐variabel berikut berdasarkan training data yang dimiliki. Adapun variabel‐variabel tersebut, yaitu :
,di mana
Adapun contoh hasil perhitungannya adalah sebagai berikut :
Dapat dilihat dari contoh perhitungan di atas, bahwa yang memiliki nilai goodness of split * Φ(s/t) + yang terbesar, yaitu split 4 dengan nilai 0.64275. Oleh karena itu split 4 lah yang akan digunakan pada root node, yaitu split dengan : assets = low dengan assets = {medium, high}.
Untuk penentuan pencabangan, dapat dilihat bahwa dengan assets=low maka didapatkan pure node leaf, yaitu bad risk (untuk record 2 dan 7). Sedangkan untuk assets = {medium, high} masih terdapat 2 nilai, yaitu good credit risk dan bad credit risk. Sehingga pencabangan untuk assets = {medium, high} memiliki decision node baru. Adapun pemilihan split yang akan digunakan, yaitu dengan menyusun perhitungan nilai Φ(s/t) yang baru tanpa melihat split 4, record 2 dan 7.
Demikian seterusnya hingga akhirnya dibentuk leaf node dan membentuk decision tree yang utuh (fully grown form) seperti di bawah ini :

SISTEM PAKAR DIAGNOSA PENYAKIT (KUSRINI)

Dalam aplikasi ini terdapat tabel-tabel sebagai berikut:
  • Tabel Rekam_Medis, berisi data asli rekam medis pasien
  • Tabel Kasus, beisi data variabel yang dapat mempengaruhi kesimpulan diagnosis dari pasien-pasien yang ada, misalnya Jenis Kelamin, Umur, Daerah_Tinggal, Gejala_1 s/d gejala_n, Hasil_Tes_1 s/d Hasi_Tes_n. Selain itu dalam tabel ini juga memiliki field Hasil_Diagnosis.
  • Tabel Aturan, berisi aturan hasil ekstrak dari pohon keputusan.
Proses akuisisi pengetahuan yang secara biasanya dalam sistem pakar dilakukan oleh sistem pakar, dalam sistem ini akan dillakukan dengan urutan proses ditunjukkan pada gambar berikut:
Hasil pembentukan pohon keputusan bisa seperti pohon keputusan yang tampak pada gambar:
Lambang bulat pada pohon keputusan melambangkan sebagai node akar atau cabang (bukan daun) sedangkan kotak
melambangkan node daun. Jika pengetahuan yang terbentuk beruka kaidah produksi dengan format:
Jika Premis Maka Konklusi Node-node akar akan menjadi Premis dari aturan sedangkan node daun akan menjadi bagian konklusinya. Dari gambar pohon keputusan pada gambar 4, dapat dibentuk aturan sebagai berikut:

  1. Jika Atr_1 = N_1
    Dan Atr_2 = N_4
    Dan Atr_3 = N_9
    Maka H_1
  2. Jika Atr_1 = N_1
    Dan Atr_2 = N_4
    Dan Atr_3 = N_10
    Dan Atr_4 = N_11
    Maka H_2
  3. Jika Atr_1 = N_1
    Dan Atr_2 = N_4
    Dan Atr_3 = N_10
    Dan Atr_4 = N_12
    Maka H_2
  4. Jika Atr_1 = N_1
    Dan Atr_2 = N_5
    Maka H_4
  5. Jika Atr_1 = N_2
    Maka H_5
  6. Jika Atr_1 = N_3
    Dan Atr_5 = N_6
    Maka H_6
  7. Jika Atr_1 = N_3
    Dan Atr_5 = N_7
    Maka H_7
  8. Jika Atr_1 = N_3
    Dan Atr_5 = N_8
    Maka H_8
Model case based reasoning dapat digunakan sebagai metode akuisisi pengetahuan dalam aplikasi system pakar diagnosis penyakit. Aturan yagn dihasilkan system ini mampu digunakan untuk mendiagnosis penyakit didasarkan pada data-data pasien. Dalam penentuan diagnosis penyakit belum diimplementasikan derajat kepercayaan terhadap hasil diagnosis tersebut.

Model Pohon Keputusan

Model Pohon Keputusan

Pohon keputusan adalah model prediksi menggunakan struktur pohon atau struktur berhirarki. Contoh dari pohon keputusan dapat dilihat di Gambar berikut ini.
Disini setiap percabangan menyatakan kondisi yang harus dipenuhi dan tiap ujung pohon menyatakan kelas data. Contoh di Gambar 1 adalah identifikasi pembeli komputer,dari pohon keputusan tersebut diketahui bahwa salah satu kelompok yang potensial membeli komputer adalah orang yang berusia di bawah 30 tahun dan juga pelajar. Setelah sebuah pohon keputusan dibangun maka dapat digunakan untuk mengklasifikasikan record yang belum ada kelasnya. Dimulai dari node root, menggunakan tes terhadap atribut dari record yang belum ada kelasnya tersebut lalu mengikuti cabang yang sesuai dengan hasil dari tes tersebut, yang akan membawa kepada internal node (node yang memiliki satu cabang masuk dan dua atau lebih cabang yang keluar), dengan cara harus melakukan tes lagi terhadap atribut atau node daun. Record yang kelasnya tidak diketahui kemudian diberikan kelas yang sesuai dengan kelas yang ada pada node daun. Pada pohon keputusan setiap simpul daun menandai label kelas. Proses dalam pohon keputusan yaitu mengubah bentuk data (tabel) menjadi model pohon (tree) kemudian mengubah model pohon tersebut menjadi aturan (rule).

sumber http://dua7an.blogspot.co.id/2013/12/tentang-pohon-keputusan-decision-tree.html

Pohon Keputusan (Decision Tree)

Pohon keputusan adalah salah satu metode klasifikasi yang paling populer karena mudah untuk diinterpretasi oleh manusia. Pohon keputusan adalah model prediksi menggunakan struktur pohon atau struktur berhirarki. Konsep dari pohon keputusan adalah mengubah data menjadi pohon keputusan dan aturan-aturan keputusan. Manfaat utama dari penggunaan pohon keputusan adalah kemampuannya untuk mem-break down proses pengambilan keputusan yang kompleks menjadi lebih simpel sehingga pengambil keputusan akan lebih menginterpretasikan solusi dari permasalahan. Pohon Keputusan juga berguna untuk mengeksplorasi data, menemukan hubungan tersembunyi
antara sejumlah calon variabel input dengan sebuah variabel target. Pohon keputusan memadukan antara
eksplorasi data dan pemodelan, sehingga  sangat bagus sebagai langkah awal dalam proses pemodelan bahkan ketika
dijadikan sebagai model akhir dari beberapa teknik lain. Sering terjadi tawar menawar antara keakuratan
model dengan transparansi model. Dalam beberapa aplikasi, akurasi dari sebuah klasifikasi atau prediksi adalah satu-satunya hal yang ditonjolkan, misalnya sebuah perusahaan direct mail membuat sebuah model yang akurat untuk
memprediksi anggota mana yang berpotensi untuk merespon permintaan, tanpa memperhatikan bagaimana atau mengapa model tersebut bekerja.
Kelebihan Pohon Keputusan

Kelebihan dari metode pohon keputusan :
1. Daerah pengambilan keputusan yang sebelumnya kompleks dan sangat global, dapat diubah menjadi lebih simpel dan spesifik.
2. Eliminasi perhitungan-perhitungan yang tidak diperlukan, karena ketika menggunakan metode pohon keputusan maka sample diuji hanya berdasarkan kriteria atau kelas tertentu.
3. Fleksibel untuk memilih fitur dari internal node yang berbeda, fitur yang terpilih akan membedakan suatu kriteria dibandingkan kriteria yang lain dalam node yang sama. Kefleksibelan metode pohon keputusan ini meningkatkan kualitas keputusan yang dihasilkan jika dibandingkan ketika menggunakan metode penghitungan satu tahap yang lebih konvensional
4. Dalam analisis multivariat, dengan kriteria dan kelas yang jumlahnya sangat banyak, seorang penguji biasanya perlu untuk mengestimasikan baik itu distribusi dimensi tinggi ataupun parameter tertentu dari distribusi kelas tersebut. Metode pohon keputusan dapat menghindari munculnya permasalahan ini dengan menggunakan criteria yang jumlahnya lebih sedikit pada setiap node internal tanpa banyak mengurangi kualitas keputusan yang dihasilkan.
Kekurangan Pohon Keputusan :

1. Terjadi overlap terutama ketika kelas-kelas dan criteria yang digunakan jumlahnya sangat banyak. Hal tersebut juga dapat menyebabkan meningkatnya waktu pengambilan keputusan dan jumlah memori yang diperlukan.
2. Pengakumulasian jumlah eror dari setiap tingkat dalam sebuah pohon keputusan yang besar.
3. Kesulitan dalam mendesain pohon keputusan yang optimal.
4. Hasil kualitas keputusan yang didapatkan dari metode pohon keputusan sangat tergantung pada bagaimana pohon tersebut didesain.


Kamis, 17 November 2016

Metode Inferensi

METODE INFERENSI

Tree (Pohon) dan Graph

-     Tree (pohon) adalah suatu hierarki struktur yang terdiri dari Node (simpul/veteks) yang menyimpan informasi atau pengetahuan dan cabang (link/edge) yang menghubungkan node.

-     Binary tree mempunyai 0,1 atau 2 cabang per-node.
o  Node tertinggi disebut root
o  Node terendah disebut daun



                          


-     Tree merupakan tipe khusus dari jaringan semantic, yang setiap nodenya kecuali akar, mempunyai satu node orang tua dan mempunyai nol atau lebih node anak.

-     Tree adalah kasus khusus dalam Graph

-     Graph dapat mempunyai nol atau lebih link di antara node dan tidak ada perbedaan antara orangtua dan anak.
-     Dalam graph, link dapat ditunjukkan berupa panah atau arah yang memadukan node dan bobot yang merupakan karakteristik beberapa aspek dari link.

-     Beberapa contoh graph sederhana:

                      
-     Graph asiklik adalah graph yang tidak mengandung siklus.
-     Graph dengan link berarah disebut digraph.
-     Graph asiklik berarah disebut lattice.
-     Tree yang hanya dengan path tunggal dari akar untuk satu daun disebut degenerate tree.

-     Aplikasi tree dan lattice adalah pembuatan keputusan disebut decision tree dan decision lattice.

-     Contoh : decision tree yang menunjukkan pengetahuan tentang hewan.



-     Aturan produksi (IF…THEN…) dari contoh di atas :
JIKA pertanyaan=”Apakah dia bertubuh besar ?”
DAN jawaban=”Tidak”
MAKA pertanyaan=”Apakah dia mencicit?”

JIKA pertanyaan=”Apakah dia bertubuh besar ?”
DAN jawaban=”Ya”
MAKA pertanyaan=”Apakah dia mempunyai leher panjang?”
dst……


Pohon AND-OR dan Tujuan

-     Banyak tipe system pakar menggunakan backward chaining untuk mendapatkan solusi dari permasalahan.

-     Salah satu tipe dari tree atau lattice yang digunakan dalam masalah representasi backward chaining adalah Pohon AND-OR.
-    


Contoh :

Penalaran Deduktif dan Silogisme
-     Tipe-tipe Inferensi

 

Deduction

Ø Pemberian alasan logikal dimana kesimpulan harus mengikuti premis

Induction

Ø Inferensi dari khusus ke umum

Intuition

Ø Tidak ada teori yg menjamin. Jawabannya hanya muncul, mungkin dengan penentuan pola yg ada secara tidak disadari.

Heuristic

Ø Aturan yg didasarkan pada pengalaman

Generate & Test

Ø Trial dan error. Digunakan dgn perencanaan.

Abduction

Ø Pemberian alasan kembali dari kesimpulan yg benar ke premis .

Default

Ø Diasumsikan pengetahuan umum sebagai default

Autoepistemic

Ø Self-knowledge

Nonmonotonic

Ø Pengetahuan yg sebelumnya mungkin tdk benar jika bukti baru didapatkan

Analogy

Ø Kesimpulan yg berdasarkan pada persamaan untuk situasi yg lainnya.

-     Suatu logika argument adalah kumpulan dari pernyataan-pernyataan yang dinyatakan untuk dibenarkan sebagai dasar dari rantai penalaran.
-     Salah satu jenis logika argunen adalah Silogisme.
-     Contoh :
Premis     : Siapapun yang dapat membuat program
                 adalah pintar
Premis     : John dapat membuat program
Konklusi   : Oleh karenanya John adalah pintar

Proses deduktif pada contoh di atas bergerak dari prinsip umum menuju konklusi khusus.

-     Penalaran deduktif umumnya terdiri dari tiga bagian : premis mayor, premis minor dan konklusi.

-     Premis disebut juga antecedent
-     Konklusi/kesimpulan disebut juga consequent

-     Silogisme dapat direpresentasikan ke dalam bentuk aturan JIKA…..MAKA….. (IF…THEN…..), contoh :
JIKA siapapun yang dapat membuat program adalah pintar
        DAN John dapat membuat program
MAKA John adalah pintar

-     Silogisme klasik disebut categoricall syllogism (silogisme yang pasti)
-     Premis dan konklusi didefinisikan sebagai statement yang pasti dari empat bentuk berikut :
Bentuk
Skema
Arti
A
Semua S adalah P
Universal Afirmative
E
Tidak S adalah P
Universal Negative
I
Beberapa S adalah P
Particular Afirmative
O
Beberapa S bukan P
ParticularNegative

-     Subjek dari konklusi S disebut bagian minor bila predikat konklusi P adalah bagian mayor.
-     Premis terdiri dari premis mayor dan premis minor.
-     Contoh :
Premis mayor : Semua M adalah P
Premis minor : Semua S adalah M
Konklusi       : Semua S adalah P
Silogisme di atas adalah bentuk standar karena premis mayor dan minor sudah diketahui.
Contoh :
      “Semua mikrokomputer adalah computer”
Subjeknya (objek yang digambarkan) adalah mikrokomputer.
Predikatnya (beberapa sifat subjek) adalah computer

-     M (middle term) adalah hal yang penting karena silogisme didefinisikan sedemikian sehingga konklusi tidak dapat disimpulkan dengan mengambil salah satu premis.

-     Q (quantifier) menggambarkan porsi dari kelas yang diketahui.
o  Quantifier “semua” dan “tidak” adalah universal karean menunjukkan keseluruhan kelas.
o  “beberapa” adalah khusus (particular) karena hanya menunjukkan satu bagian dari kelas yang diketahui.

-     Mood dari silogisme didefinisikan sebagai tiga huruf yang memberikan bentuk masing-masing premis mayor, minor dan konklusi.
Contoh :
            Semua M adalah P
            Semua S adalah M
            \Semua S adalah P
menunjukkan suatu mood AAA-1

-     Ada 4 kemungkinan pola susunan istilah S, P dan M :

Figure 1
Figure 2
Figure 3
Figure 4
Premis Mayor
MP
PM
MP
PM
Premis Minor
SM
SM
MS
MS
-     Tidak selalu argument yang mempunyai bentuk silogisme merupakan silogisme yang valid.
-     Contoh : Silogisme tidak valid berbentuk AEE-1
Semua M adalah P
      Tidak  S adalah M
      \Tidak S adalah P

Semua mikrokomputer adalah computer
Bukan mainframe adalah mikrokomputer
\Bukan mainframe adalah computer

-     Diperlukan prosedur keputusan (decision procedure) untuk pembuktian validitas.
-     Prosedur keputusan untuk silogisme dapat dilakukan menggunakan diagram venn tiga lingkaran yang saling berpotongan yang merepresentasikan S,P, M.

-     Contoh : Prosedur Keputusan untuk AEE-1
Semua M adalah P
      Tidak  S adalah M
      \Tidak S adalah P

 




-     Contoh : Prosedur Keputusan untuk EAE-1
Tidak M adalah P
      Semua S adalah M
      \Tidak S adalah P
        

 


Kaidah dari Inferensi

-     Diagram Venn tidak sesuai untuk argumen yang lebih kompleks karena sulit dibaca pada decision tree untuk silogisme.
-     Logika proposisi memberikan pengertian lain dari penggambaran argumen.
-     Contoh :
Jika ada daya listrik, komputer akan bekerja
Ada daya
\ Komputer akan bekerja

A = ada daya listrik
B = komputer akan bekerja

Sehingga dapat ditulis :
      AàB
      A
      \ B

-     Bentuk umum Ponens / direct reasoning / law of detachment / assuming the antecedent
pàq
p                atau   pàq,   p;    \ q
\ q

Bentuk tersebut valid, karena argumen tersebut dapat ditunjukkan sebagai suatu tautologi.
            ((pàq)Ùp) àq

Tabel Kebenaran Ponens :
p
q
pàq
((pàq)Ùp)
((pàq)Ùp) àq
T
T
T
T
T
T
F
F
F
T
F
T
T
F
T
F
F
T
F
T

-     Terdapat argumen yang menyerupai ponens namun perlu dibuktikan validitasnya.

Contoh :
Jika tidak kesalahan maka program dapat mengkompile
Program dapat mengkompile
\ Tidak ada kesalahan
pàq
q                atau   pàq,   q;    \ p
\ p
Tabel Kebenaran:
p
q
pàq
((pàq)Ùq)
((pàq)Ùq) àp
T
T
T
T
T
T
F
F
F
T
F
T
T
T
F
F
F
T
F
T
(Bukan Pones karena tidak bersifat Tautology)

-     Skema argumen lain :
pàq
~q             
\ ~p
Tabel Kebenaran:
p
q
pàq
~q
(pàq)Ù~q)
~p
((pàq)Ù~q) à~p
T
T
T
F
F
F
T
T
F
F
T
F
F
T
F
T
T
F
F
T
T
F
F
T
T
T
T
T

Argumen di atas disebut Tollens / indirect reasoning / law of contraposition.

-     Beberapa huum Inferensi
Hukum Inferensi
Skema
1. Hukum Detasemen
pàq
p    
\q        
2. Hukum Kontrapositif
pàq
\~q à~p      
3. Hukum Modus Tollens
pàq
~q                
\ ~p
4. Aturan Rantai
    (hukum silogisme)
pàq
qàr
\ pàr   
5. Hukum Inferensi Disjungsi
pÚq           pÚq
~p             ~q      
\ q           \ p
6. Hukum negasi
~(~p)
\ p
7. Hukum de Morgan
~(pÙq)        ~(pÚq)
\~pÚ~q     \~pÙq
8. Hukum Simplifikasi
pÙq               pÙq
\p                \q
9. Hukum Konjungsi
p
q
\pÙq
10. Hukum Penambahan
     Disjungtif

p
\pÚq
11. Hukum Argumen
      Konjugtif
~(pÙq)           ~(pÙq)
p                    q
~q                 ~p

-     Kaidah inferensi dapat digunakan untuk argumen yang mempunyai lebih dari dua premis.
Contoh :
Harga chip naik hanya jika yen naik
Yen naik hanya jika dollar turun dan
      jika dollar turun maka yen naik
Karena harga chip telah naik
\Dollar harus turun

Misal :   C = harga chip naik
              Y = Yen naik
              D = Dollar turun
            1.    C àY
2.    (Y àD)Ù( D àY)
3.    C
\D

-     Kondisional p àq mempunyai converse, inverse dan kontrapositif
Kondisional
p àq
Converse
q à p
Inverse
~p à~q
Kontrapositif
~q à ~p
Jika p àq dan q à p bernilai benar, maka keduanya adalah ekuivalen.
p àqÙ q à p ekuivalen dengan p«q atau pºq.

sehingga argumen untuk contoh di atas, menjadi :
1.    C àY
2.    (Y àD)Ù( D àY)
3.    C                                       /\D
4.    YºD                                    2 ekuivalen
5.    C àD                                 1 substitusi
6.    D                                       3,5 modus ponens





Share

Twitter Delicious Facebook Digg Stumbleupon Favorites More