TIC Lecture 01 Intro2010

download TIC Lecture 01 Intro2010

of 53

Transcript of TIC Lecture 01 Intro2010

  • 8/17/2019 TIC Lecture 01 Intro2010

    1/53

    Dosen :

    Ir. Dede Sutarya, MT

    Kontak/diskusi :

    Telp : 021 8790 7342

    HP : 0812 855 3001

    Email :[email protected]

    [email protected]

    Class Agenda (tentaive):Minggu : 15.20 – 18.00

    Teori informasi & PengkodeanTeori informasi & Pengkodean Information Theory & Coding 

  • 8/17/2019 TIC Lecture 01 Intro2010

    2/53

    Who Am I ? Who Am I ? 

    Ir.Ir. DedeDede SutaryaSutarya, MT , MT 

    •• Lahir Lahir :: Sumedang Sumedang, 08 April 1972 , 08 April 1972 

    •• PNS (PNS ( Ristek Ristek- -BATAN):BATAN): Desember Desember 19911991

    •• MelanjutkanMelanjutkan S1: 1995 lulus 2000S1: 1995 lulus 2000

    •• MelanjutkanMelanjutkan S2: 2002 lulus 2004S2: 2002 lulus 2004

    •• MelanjutkanMelanjutkan S3: 2010S3: 2010 hinggahingga sekarang sekarang dengandengan

    beasiswabeasiswa dari dari KementrianKementrian Riset Riset dandan Teknologi Teknologi RI RI 

  • 8/17/2019 TIC Lecture 01 Intro2010

    3/53

     Ir.Dede Sutarya, MT

    Teori Informasi & Pengkodean

    Teori Informasi & PengkodeanTeori Informasi & Pengkodean

    Textbook

    1. Thomas M. Cover & Joy A. “Elemen of Information

    Theory”, Wiley-Interscience, 2006.

    2. Jan CA van der Lubbe , “Information theory”,Cambridge University Press, 1997.

    3. Todd K. Moon, “ Error Corection Coding, Wiley-

    Interscience, 2005.

    4. Error control-coding for data networks, Irving S.Reed, Kluwer academic publisher, 1999

  • 8/17/2019 TIC Lecture 01 Intro2010

    4/53

     Ir.Dede Sutarya, MT

    Tujuan Perkuliahan (objective):Tujuan Perkuliahan (objective):

    Menjelaskan ide-ide dasar tentang teori informasi

    yang utamanya berkenaan dengan bagaimana

    informasi ditransmisikan dan disimpan secara efisien,

    kapasitas canal dalam mentransmisikan informasi,serta keamanan dari informasi yang ditransmisikan

  • 8/17/2019 TIC Lecture 01 Intro2010

    5/53

    SyllabusSyllabus - - TopicsTopics

     Part 1 Information Theory Part 1 Information Theory 

     – Konsep peluang – Informasi & Entropy

     – Informasi &

    Pengkodean – Sumber Informasi

    Diskrit Tanpa memori

     Part 2 Coding Part 2 Coding  – Arithmatic Coding

     – Dictionary Technique

     – Huffman coding

     – Convolutional coding

     – Viterbi Alghoritm

     – Turbo Code

     – Soft & Hard Decision

    5

  • 8/17/2019 TIC Lecture 01 Intro2010

    6/53

     Ir.Dede Sutarya, MT

    Teori Informasi & PengkodeanTeori Informasi & Pengkodean

    Detail Outline:1. Information theory

    • Introduction

    • Uncertainty, Information, and Entropy

    • Source-Coding Theorem

    • Data Compaction

    • Huffman Coding

    • Lempel-Ziv Coding• Discrete Memoryless Channels (DMC)

    • Mutual Information

    • Channel Capacity

    • Channel Coding Theorem

    • Information Capacity Theorem2. Error-Control Coding

    • Introduction

    • Linear Block Codes

  • 8/17/2019 TIC Lecture 01 Intro2010

    7/53 Ir.Dede Sutarya, MT

    Teori Informasi & PengkodeanTeori Informasi & Pengkodean• Generator Matrix

    • Parity-Check Matrix

    • Syndrome

    • Group Theory

    • Examples in Using Group Theory to Correct Erroneous Codes

    3. Convolutional Codes• Introduction

    • Convolutional Encoder

    • An Example of a Convolutional Encoder

    • Usual Mode of Operation

    • General Rate 1/n Constraint Length K Code

    • Tree Representation of Convolutional Codes

    • Finite-State Machine Code Representation

    • Trellis Representation of Convolutional Codes• ML Decoding of a Convolutional Code

    • Viterbi Algorithm

    • Free Distance of a Convolutional Code

  • 8/17/2019 TIC Lecture 01 Intro2010

    8/53 Ir.Dede Sutarya, MT

    Teori Informasi & PengkodeanTeori Informasi & Pengkodean

    Skema Penilaian / Gradding

     – Tugas/quiz (15 %)

     – UTS / Mid Semester (30 %)

     – UAS / Final (45 %)

     – Kehadiran / Class Participation (10%)

    untuk semua mahasiswa agar lulus mata kuliah ini, harus mendapatkan skor penilaian rata-rata tidakkurang dari 50% pada ujian dan tugas atau kuis

  • 8/17/2019 TIC Lecture 01 Intro2010

    9/53 Ir.Dede Sutarya, MT

    PendahuluanPendahuluan

    Ada 3 type informasi:

    1. Syntactic information: berkenaan dengan simbol-simbol yangmembangun informasi (pesan) tersebut serta kaitan antarasimbol-simbol tsb.

    2. Semantic information: berkenaan dengan makna serta aspek

    referensi dari pesan3. Pragmatic information: berkenaan dengan pemanfaatan serta

    dampak dari pesan terkait.

    Perkembangan teori informasi di Inggris (MacKay, Carnap, Bar-

    Hillel, Ackoff dan Hintikka) lebih diwarnai oleh aspek semantikdan pragmatik , sebaliknya di America (Shannon, Renyi,Gallager , dan Csiszar) aspek syntactic lebih ditekankan.

  • 8/17/2019 TIC Lecture 01 Intro2010

    10/53 Ir.Dede Sutarya, MT

    • Dalam kuliah ini, pembahasan lebih ditekankan pada aspek  syntactic terutama yang berkaitan dengan ukuran dan kwantifikasi

    dari informasi serta batasan yang berkenaan dengan kemampuan

    sarana dan prasarana pendukung dalam mentransmisikan informasi.

    • Konsep ukuran (measure) yang akan digunakan adalah teori yang

    dikembangkan oleh Shannon. Teori Shannon ini diilhami oleh ide-

    ide terdahulu yang dikembangkan oleh Nyquist (1924) dan Hartley

    (1928). Berbeda dengan pendahulunya, teori Shannon melibatkan pengertian tentang probabilitas.

    Pendahuluan … Cont Pendahuluan … Cont 

  • 8/17/2019 TIC Lecture 01 Intro2010

    11/53 Ir.Dede Sutarya, MT

    Konsep PeluangKonsep Peluang

    Himpunan X={x1,….,xn} dikatakan ruang probabilitas (ruang sampel) untuk suatu

     percobaan bila masing-masing  xi adalah hasil (outcome/event) yang mungkindalam percobaan tersebut.

    Contoh:

    Dalam percobaan pelemparan sebuah dadu satu kali, maka ruang probabilitasnya

    adalah X={1,2,3,4,5,6}. Sedangkan dalam pelemparan coin dua kali diperoleh

    X={(H,H), (H,T), (T,H), (T,T)} [T=tail, H=head]

    Masing-masing outcome memiliki suatu peluang untuk sukses/muncul tertentu,

    yakni event xi memiliki peluang pi=p(xi). Himpunan semua peluang untuk setiap

    event dalam ruang probabilitas tertentu disebut sebaran peluang (probabilitydistribution), ditulis: P={p1,p2,….,pn} dan memenuhi dua kriteria berikut:

    a) pi ≥ 0 untuk semua i

     b) p1+p2+......+pn= 1

  • 8/17/2019 TIC Lecture 01 Intro2010

    12/53 Ir.Dede Sutarya, MT

    Dimungkinkan juga outcome dari suatu percobaan berupa pasangan

     berurutan misalnya (x,y). Umpamanya dalam percobaan pelemparansebuah dadu dan sebuah mata uang logam. Dalam hal ini peluang

    untuk muculnya event  (xi,yj) dinotasikan sebagai rij = r(xi,yj) dan

    disebut joint probability antara. Jika misalnya pi = p(xi); i=1…n, qj =

    q(yj); j = 1…m, berturut-turut adalah peluang utk masing-masingoutcome xi dan yj, maka diperoleh hubungan:

    Konsep Peluang…cont Konsep Peluang…cont 

    1

    1

    m

    i ij

      jn

      j ij

    i

     p r 

    q r 

    Tentu saja dalam hal ini :1 1

    1m n

    ij

     j i

  • 8/17/2019 TIC Lecture 01 Intro2010

    13/53 Ir.Dede Sutarya, MT

    Peluang bersyarat untuk xi jika diketahui yj didefinisikan sebagai:

    Konsep Peluang…cont Konsep Peluang…cont 

    ( , )( | ) ; ( ) 0( )

    i j

    i j j

     j

    r x y p x y jika q yq y

    ( , ) ( ) ( | ) ( ) ( | )i j j i j i j ir x y q y p x y p x q y x

    Tampak bahwa secara matematis diperoleh hubungan sebagai berikut:

    Selanjutnya jika q(yj)>0 maka

    1

    ( ) ( | )( | )

    ( )

    ( ) ( | )

    ( ) ( | )

    i j i

    i j

     j

    i j i

    n

    i j i

    i

     p x q y x p x y

    q y

     p x q y x

     p x q y x

  • 8/17/2019 TIC Lecture 01 Intro2010

    14/53 Ir.Dede Sutarya, MT

    yang lebih dikenal dengan teorema Bayes.Jika xi dan yj saling bebas (independent), maka p(xi|yj)=p(xi)

    dan q(yj|xi)=q(yj). Sehingga dalam hal ini r(xi,yj)=piqj.

    Konsep Peluang…cont Konsep Peluang…cont 

  • 8/17/2019 TIC Lecture 01 Intro2010

    15/53 Ir.Dede Sutarya, MT

    Sumber informasi ShannonSumber informasi Shannon

    Misalkan X adalah suatu ruang sampel dengan sebaran peluang P.

    Maka rata-rata besarnya informasi didefinisikan sebagai:

    1 1

    ( ) ( ) log ( ) logn n

    i i i i

    i i

     H P p x p x p p

    Contoh: misalkan X adalah percobaan pelemparan mata uang dgn

     peluang p untuk mendapat muka. Maka dalam hal ini

    H(P)=-p log p- (1-p) log (1-p)

    H(P) merupakan fungsi yang memenuhi beberapa sifat berikut:

    a. Kontinyu dalam peubah p

     b. Symetrik, dalam artian urutan event tidak mengubah nilai Hc. additive,

    d. H mencapai titik maksimum pada titik di mana semua probabilitas sama

    nilainya.

  • 8/17/2019 TIC Lecture 01 Intro2010

    16/53 Ir.Dede Sutarya, MT

    Sumber informasi Shannon…cont Sumber informasi Shannon…cont 

    • Bahwa ukuran informasi Shannon H symmetric berarti

     pertukaran urutan penamaan event tidak akan mengubah nilai H.Juga berarti bhw dua ruang samples dengan sebaran peluang yang

    sama akan memiliki ukuran informasi yang sama.

    • Bahwa H bersifat additive maksudnya jika X dan Y adalah duaruang sample dimana outcome X independent dari outcome Y

    maka ukuran informasi yang terkait dengan joint event (x,y)

    adalah H(X,Y)=H(X)+H(Y).

    • Karena dalam hal ini H menyatakan ukuran ketakpastian dari

    outcome, maka nilai H akan maksimum jika semua even memiliki

     peluang yang sama.

  • 8/17/2019 TIC Lecture 01 Intro2010

    17/53 Ir.Dede Sutarya, MT

    Sumber informasi Shannon…cont Sumber informasi Shannon…cont 

    Teorema:

    Andaikan X adalah ruang sample dengan n outcomes, dan P

    adalah sebaran peluangnya. Maka

    a. H(P) log(n); kesamaan akan terjadi hanya bila pi=1/n b. H(P) 0; H(P)=0 hanya bila ada k dengan pk=1.

    Contoh: Dalam melempar sebuah dadu yang imbang, H(P)=log 6.

     Namun jika dadu tsb. sudah dibuat cacat sehingga setiap dilempar pasti akan keluar angka 1, maka H(P)=0.

  • 8/17/2019 TIC Lecture 01 Intro2010

    18/53 Ir.Dede Sutarya, MT

    Conditional, Joint & Mutual Conditional, Joint & Mutual 

    Joint information measure antara dua sample space X dan Y

    didefinsikan sebagai:

    ( , ) ( , )log( ( , )i j i j

     H X Y r x y r x y

    Tampak bahwa definisinya sama seperti ukuran informasi marginal

    kecuali bahwa sekarang digunakan joint probability.Conditional information measure, yaitu ukuran informasi X bila ada

     prior knowledge tentang Y, didefinsikan sebagai:

    ( | ) ( , ) log( ( | )i j i j H X Y r x y p x y

    Perhatikan di sini bahwa kita menggunakan joint probability r(x,y)

    dan conditional probability p(x|y).

  • 8/17/2019 TIC Lecture 01 Intro2010

    19/53 Ir.Dede Sutarya, MT

    Conditional, Joint & Mutual….cont Conditional, Joint & Mutual….cont 

    Analog dengan di atas kita juga bisa mendefinisikan ukuran

    informasi berkaitan dengan experiment Y jika diketahui X adalah:

    ( | ) ( , ) log( ( | )i j j i H Y X r x y q y x

    Teorema:

    1. H(Y|X) 02. H(Y|X) H(Y) dengan kesamaan akan terjadi bila X dan Y

    independen

    3. H(X,Y)=H(X)+H(Y|X) = H(Y) + H(X|Y)

    4. H(X,Y) H(X)+H(Y)

  • 8/17/2019 TIC Lecture 01 Intro2010

    20/53 Ir.Dede Sutarya, MT

    Conditional, Joint & Mutual….cont Conditional, Joint & Mutual….cont 

    Mutual information measure antara X dan Y didefinsikan sebagai

    I(X;Y)=H(Y)-H(Y|X)

    Dari definisi H(Y) dan H(Y|X) kita dapatkan bahwa

    I(X;Y) = H(X)-H(X|Y)

    Sehingga mutual information measure I bersifat simetrik

    • I(X;Y) dapat diartikan sebagai ukuran keterkaitan anatara X dan

    Y, sehingga bila X dan Y independen maka H(Y|X)=H(Y),

    sehingga I(X;Y)=0.

    • Jika Y tergantung secara keseluruhan pada Y, yaitu H(Y|X)=0

    (dengan diketahuinya X maka tidak ada ketidak pastian akan Y)

    maka I(X;Y)=H(Y) suatu kondisi maksimal.

  • 8/17/2019 TIC Lecture 01 Intro2010

    21/53

     Ir.Dede Sutarya, MT

    Conditional, Joint & Mutual….cont Conditional, Joint & Mutual….cont 

    Secara diagram Venn ketiga ukuran informasi tadi dapat

    digambarkan sebagai

    H(x|y) I(x:y) H(y|x)

  • 8/17/2019 TIC Lecture 01 Intro2010

    22/53

     Ir.Dede Sutarya, MT

    The Communication Model The Communication Model 

    Model komunikasi yang digunakan dianggap terdiri dari 4

    komponen pokok yaitu:1. transmitter (yaitu komponen yang menerima input dari sumber 

    informasi dan mengirimkan informasi tersebut ke sistem)

    2. channel (yaitu kanal yang akan menyalurkan informasi yang

    dikirim oleh transmitter)

    3. noise (yaitu elemen yang akan mengganggu informasi selama proses perjalannya dalam kanal penghubung)

    4. receiver (yaitu bagian penerima informasi untuk akhirnya

    disampaikan ke tujuan informasi dikirim)

    Komponen dan elemen detil dari model di atas tentu saja

    menyangkut hal-hal pokok dalam teori informasi seperti

     pengkodean, kompresi, rekonstruksi, dll.

  • 8/17/2019 TIC Lecture 01 Intro2010

    23/53

     Ir.Dede Sutarya, MT

    Informasi dan Entropy Informasi dan Entropy 

    • Apakah informasi dan bagaimana mengukurnya?

    • Mana yang memuat „lebih banyak‟ informasi? –  Besok matahari akan terbit

     –  Harga BBM di Indonesia turun

    • „nilai‟ informasi ~ surprise, unexpectedness, uncertainty• Jumlah kombinasi nilai informasi dari kejadian (event ) ygtidak berelasi ~ jumlah nilai informasi masing-masingkejadian (mempunyai harga yang lebih kecil jika kejadian-kejadian berelasi) –  Hari ini hujan + Saya tidak perlu menyiram taman

     –  Hari ini hujan + Ada halaman yang hilang dari textbook saya

    • Intuisi di atas menjadi basis dari teori informasi yangdiusulkan Claude E Shannon (1948)

  • 8/17/2019 TIC Lecture 01 Intro2010

    24/53

     Ir.Dede Sutarya, MT

    Informasi dan Entropy Informasi dan Entropy 

    • Set event: S = { x1 , ….., xn}

    • S disebut alphabet jika xi sebuah simbol (huruf) digunakan utk

    membangun pesan (message)

    • Probabilitas kemunculan masing-masing event, p(xi ) = p

    i•  P = { p1 , ….., pn}, dimana pi ≥ 0,

    • Untuk sumber memoryless:

     –   Nilai self-information yg berhub. dg event xi digunakan definisi

     I(xi ) = -logk  pi –  Fungsi di atas adalah ukuran informasi ( surprise atau unexpectedness)

    dari kemunculan event xi

      n

    i   i p

    11

  • 8/17/2019 TIC Lecture 01 Intro2010

    25/53

     Ir.Dede Sutarya, MT

    Informasi dan Entropy Informasi dan Entropy 

    • Fungsi self-information I 

    • Unit informasi (uncertainty) disebut bit jikadigunakan algoritma dengan basis 2 (lg x = log2 x)

  • 8/17/2019 TIC Lecture 01 Intro2010

    26/53

     Ir.Dede Sutarya, MT

    Informasi dan Entropy Informasi dan Entropy 

    • Untuk sumber biner –  S = { x1 , x2}, P = {½, ½}

     I ( x1) = -lg½ = 1 bit  I ( x2) = -lg½ = 1 bit

     –  S = { x1 , x2}, P = {¼, 3/4},

     I ( x1) = -lg¼ = 2 bit I ( x2) = -lg3/4 = 0,415 bit

    • Fungsi I hanya fokus pada satu event

     –   pada kebanyakan situasi (kompresi data) lebih relevan mengukurcontent informasi pada keseluruhan set

    Konsep Shannon: entropy ukuran uncertainty satu set

    event

  • 8/17/2019 TIC Lecture 01 Intro2010

    27/53

     Ir.Dede Sutarya, MT

    Entropy Entropy 

    S = { x1 , ….., xn}, satu set event independen P = { p1 , ….., pn}, probabilitas kemunculan

    Entropy:

    Entropy = rata-rata self-information kemunculanevent xi

  • 8/17/2019 TIC Lecture 01 Intro2010

    28/53

     Ir.Dede Sutarya, MT

    Entropy Entropy 

    • Entropy dapat juga diinterpretasikan jumlah rata-rata minimumdari jumlah pertanyaan ya/tidak untuk menentukan harga

    spesifik dari variabel X 

    • Dalam konteks coding message, entropy merepresentasikan batas bawah (lower bound ) dari jumlah rata-rata bit per satu

    nilai input – yaitu rata-rata panjang code word digunakan untuk

    mengkodekan input

  • 8/17/2019 TIC Lecture 01 Intro2010

    29/53

     Ir.Dede Sutarya, MT

    Entropy Entropy 

    Contoh

    • Untuk sumber biner, set probabilitas

     P = { p1 , p2} = { p1, 1- p1}

     H ( p1 ,p2) = - p1lg p1 –  p2lg p2

    = - p1lg p1 – (1 –  p1)lg(1 –  p1) = H ( p1)

  • 8/17/2019 TIC Lecture 01 Intro2010

    30/53

     Ir.Dede Sutarya, MT

    Entropy Entropy 

    Contoh

    • Jika S = { x1 , x2 , x3}, P = {½,¼,¼},

    maka:

     H ( p1 ,p2 ,p3) = - ½lg½ - ¼lg¼ - ¼lg¼

    = ½ + ½ + ½ = 1,5 bit/event

  • 8/17/2019 TIC Lecture 01 Intro2010

    31/53

     Ir.Dede Sutarya, MT

    Karakteristik Entropy Karakteristik Entropy 

    Karakteristik-karakteristik fungsi Entropy H :

    • Symmetry dari H : urutan dari argumen H tidak berpengaruh

    • Fungsi H mempunyai batas atas dan bawah:0 = H (1,0,…,0) ≤ H ( p1 ,…,pn) ≤ H (1/n,…,1/n) = lgn

    •  Null set property. Menambahkan event dg prob 0 pada setevent tidak mengubah entropy

     H ( p1 , …, pn , 0) = H ( p1 , …, pn)• Fungsi f(n) = H(1/n, …,1/n) tumbuh monoticall:

     f(n) 0 dan n > 0

  • 8/17/2019 TIC Lecture 01 Intro2010

    32/53

     Ir.Dede Sutarya, MT

    Karakteristik Entropy Karakteristik Entropy 

    • Grouping axiom. Jika set S = { x1 , …, xn}, nilai x1 ,

    …, xi disatukan bersama membentuk satu grup S i:

      

      

    i

    i

    i

    i

    nii

    nii

     p p p

     p p p H  p p

     p p p p H 

     p p p p H 

    ...,...,

    ...)...( 

    ),...,,...( 

    ),...,.,...,(

    11

    11

    11

    11

    o se ess emory esso se ess emory ess

  • 8/17/2019 TIC Lecture 01 Intro2010

    33/53

     Ir.Dede Sutarya, MT

    o se ess emory esso se ess emory essCoding Coding 

    • Sumber tidak punya memory (simbol ditransmisikan secara

    independen)• S = { x1 , …, xn}, P = { p1 , ….., pn}

    • Codewords C = {c1 , ….., cn}

    • Code disebut binary code jika komposisi codeword adalah 0dan 1

    • Rata-rata panjang codeword

    dimana l i adalah panjang codeword ci yang mengkodekansimbol xi

    • Panjang codeword Shannon : l i = -lg pi

    •  Dalam kompresi data  meminimumkan cost (Lavg  )

    n

    i

    iiavg    l  p L1

    Noiseless & MemorylessNoiseless & Memoryless

  • 8/17/2019 TIC Lecture 01 Intro2010

    34/53

     Ir.Dede Sutarya, MT

    Noiseless & MemorylessNoiseless & Memoryless

    Coding Coding • Suatu code adalah uniquely decodable jika hanya ada satu cara memecah

    deretan codeword ci1ci2...cik ke dalam codeword terpisah. Yaitu jikaci1ci2…cik = c j1c j2…c jk , maka untuk tiap s,

    i s = j s (yaitu cis = c js)

    • Suatu code mempunyai prefix (atau irreducibility atau self-punctuating)

     property jika tidak ada code word didapat dari codeword lain denganmenambahkan 0 atau 1, atau tidak ada codeword merupakan prefix daricodeword lain

     –  scanning deretan codeword, tidak memerlukan melihat kedepan (look ahead )untuk menghindari ambiguitas

     –  Tidak diperlukan tanda khusus untuk memisahkan dua codeword dalam

    message

    • Optimal code adalah yang menghasilkan harga Lavg terendah yang mungkin

  • 8/17/2019 TIC Lecture 01 Intro2010

    35/53

     Ir.Dede Sutarya, MT

    ContohContoh

    Huruf code1 code2 code3 code4

    A 0 0 00 00

    B 1 11 01 01

    C 01 01 10 1

    Mana yang mempunyai karakteristik 

    • uniquely decodable•  prefix property

    • optimal code

  • 8/17/2019 TIC Lecture 01 Intro2010

    36/53

     Ir.Dede Sutarya, MT

    ContohContoh

  • 8/17/2019 TIC Lecture 01 Intro2010

    37/53

     Ir.Dede Sutarya, MT

    The Kraft Inequality The Kraft Inequality 

    Kraft‟s Theorem

    • Terdapat prefix binary code dengan codeword {c1 , .., cn}

    dengan panjang {l 1 , ….., l n} jika dan hanya jika

    • Bukti

    n

    i

    l i

    1

    12

    n

    i

    l n

    i

    l l l  ii

    11

    1222 maxmax atau

  • 8/17/2019 TIC Lecture 01 Intro2010

    38/53

     Ir.Dede Sutarya, MT

    The Kraft Inequality The Kraft Inequality 

    • Theorem menyatakan untuk satu set panjang codeword, prefix

    code dapat dibentuk dan bukan bagaimana membentuknya

    • Memungkinkan banyak prefix code dapat dibuat dengan tetap

    memenuhi kondisi teorema

    • Teorema menjamin mendapatkan prefix code tapi tidak

    menjamin optimal

  • 8/17/2019 TIC Lecture 01 Intro2010

    39/53

     Ir.Dede Sutarya, MT

    The Kraft Inequality The Kraft Inequality 

    • The Kraft inequality menjadi equality jika codeword tidak dpdiperpendek lagi, perhatikan utk set panjang codeword {2,3,3,4} dan{1,3,3,3)

    • Utk sejumlah panjang codeword prefix code dp dicari, tetapi adakemungkinan utk set panjang yg sama, dp dibangun non-prefix code

    • Teorema hanya berbicara prefix code, tetapi prefix code uniquelydecodable code

    18

    8

    2

    1

    2

    1

    2

    1

    2

    1

    2

    1

    116

    11

    2

    1

    2

    1

    2

    1

    2

    1

    2

    1

    33331

    43332

    T F d t lT F d t l

  • 8/17/2019 TIC Lecture 01 Intro2010

    40/53

     Ir.Dede Sutarya, MT

    Teorema FundamentalTeorema Fundamental

    Discrete Coding Discrete Coding 

    • Ukuran kinerja (dari sudut pandang kompresi data):

    • Mis. Kompresi file dg compression ratio 75% berarti file

    hasil kompresi ¾ file sblm kompresi

    • Compression rate 25% berarti file sblm kompresi

    dikurangi ¼ nya (persentasi space yg dp dihemat)

    RationCompressio-1RatenCompressio

    100% x 

    (input)Panjang 

    (output)Panjang  RationCompressio

    T F d t lT F d t l

  • 8/17/2019 TIC Lecture 01 Intro2010

    41/53

     Ir.Dede Sutarya, MT

    Teorema FundamentalTeorema Fundamental

    Discrete Coding Discrete Coding 

    • Untuk suatu rasio kompresi yang didapat, bisakah

    ditingkatkan lagi?

    • Konsep Entropy menunjukan batas kompresi yangdapat dicapai

    • Panjang codeword rata-rata > source entropy

    T F d t l Di tT F d t l Di t

  • 8/17/2019 TIC Lecture 01 Intro2010

    42/53

     Ir.Dede Sutarya, MT

    Teorema Fundamental DiscreteTeorema Fundamental Discrete

    Coding Coding • Teorema

     –  Untuk suatu prefix binary code dengan panjang rata-rata codeword

    maka

     Lavg  H(S)

     –  Terdapat prefix binary code dimana

     Lavg 

  • 8/17/2019 TIC Lecture 01 Intro2010

    43/53

     Ir.Dede Sutarya, MT

    Teorema FundamentalTeorema Fundamental

    Discrete Coding Discrete Coding 

    • Contoh

    S = {a,b,c}, P = {0.1, 0.45, 0.45}

     H(S) = 1,369

    Panjang codeword: p = 0,1 l = -lg 0,1 = 4

     p = 0,45 l = -lg 0,45 = 2 Lavg = 2,2 bit/karakter

    Ambil set panjang codeword = {2,2,1} memenuhi Kraftinequality

     Lavg = 1,55 bit/karakter

    • 1,55 bit/kar lebih baik drpd 2,2 bit/kar masih ada ruang perbaikan (ingat entropy sistem = 1,369)

    T F d t lT F d t l

  • 8/17/2019 TIC Lecture 01 Intro2010

    44/53

     Ir.Dede Sutarya, MT

    Teorema FundamentalTeorema Fundamental

    Discrete Coding Discrete Coding 

    •  Lavg dp diperbaiki dg mengambil blok/deretan karakter drpd singlekarakter (dg bayaran kompleksitas yg meningkat)

    • Contoh: S = {a,b,c}, P = {0.1, 0.45, 0.45}

    Bentuk sumber baru S 2 = {aa,ab,ac,ba,bb,bc,ca,cb,cc} P = {0.01, 0.045, 0.045, 0.045, 0.2025, 0.2025, 0.045, 0.2025, 0.2025}

     H(S 2 ) = 2H(S) = 2,738  buktikan!

    Panjang codeword (Shannon)

    -lg 0,01 = 7 ; -lg 0,45 = 5; -lg 0,2025 = 3

    Panjang rata-rata per sub-simbol:

     L2 = 0,01 . 7 + 4 . 0,045 . 5 + 4 . 0.2025 . 3 = 3,4

    Panjang rata-rata per karakter = L2 /2 = 1,7 bit/karakter

  • 8/17/2019 TIC Lecture 01 Intro2010

    45/53

     Ir.Dede Sutarya, MT

    ShannonShannon- -Fano Coding Fano Coding 

    Suboptimal code• Shannon code

    • Shannon-Fano code

    Optimal code

    • Huffman code

    • Arithmetic coding

    Efisiensi macam-macam code diukur dengan:

    %100.)(

    avg  L

    S  H effisiensi  

  • 8/17/2019 TIC Lecture 01 Intro2010

    46/53

     Ir.Dede Sutarya, MT

    Shannon Coding Shannon Coding 

    • S = { x1 , …, xn}•  P = { p1 , ….., pn}

    •  pi = p(xi ) dari semua simbol sumber xi diurut dari yang

     paling besar: p1 ≥ p2 ≥ … ≥pn

    • Cumulative prob didefinisikan: P i = p1 + … + pi-1

    • Codeword utk simbol xi didp dg mengambil l i = |-lg pi |

    digit pertama dari ekspansi biner P i

     P i = 0.b1b2b3b4…

    = b1 /21

    + b2 /22

    + b3 /23

    +…

  • 8/17/2019 TIC Lecture 01 Intro2010

    47/53

     Ir.Dede Sutarya, MT

    Shannon Coding Shannon Coding 

    • Contoh:S = { A, B, C, D, E }

     P = {0.35, 0.17, 0.17, 0.16, 0.15}

  • 8/17/2019 TIC Lecture 01 Intro2010

    48/53

     Ir.Dede Sutarya, MT

    ShannonShannon- -Fano Coding Fano Coding 

  • 8/17/2019 TIC Lecture 01 Intro2010

    49/53

     Ir.Dede Sutarya, MT

    ShannonShannon- -Fano Coding Fano Coding 

    • ContohS = { A, B, C, D, E }

     P = {0.35, 0.17, 0.17, 0.16, 0.15}

    • Pengkodean Shannon-Fano:

     –  Bagi S kedalam s1 dan s2 (pilih yang memberikan

     perbedaan p(s1 ) dan p(s2 ) terkecil

     –  s1 = (A,B)

     p(s1 ) = p(A) + p(B) = 0,52 –  s2 = (C,D,E) p(s2 ) = p(C) + p(D) + p(E) = 0,48

     –  Panggil ShannonFano()

    ShSh F C diF C di

  • 8/17/2019 TIC Lecture 01 Intro2010

    50/53

     Ir.Dede Sutarya, MT

    ShannonShannon- -Fano Coding Fano Coding 

    Panjang code rata-rata:

     L sh = 0,35*2 + 0,17*2 + 0,17*2 + 0,16*3+0,15*3 = 2,31

    • Efisiensi = (2,23284/2,31)*100 = 96,66 %

  • 8/17/2019 TIC Lecture 01 Intro2010

    51/53

     Ir.Dede Sutarya, MT

    Kompresi Text Kompresi Text 

    • Shannon-Fano coding salah satu yg digunakan utk

    kompresi text

  • 8/17/2019 TIC Lecture 01 Intro2010

    52/53

     Any

    Questions? 

    A i t (T 1)

  • 8/17/2019 TIC Lecture 01 Intro2010

    53/53

    Assigment (Tugas-1):kumpulkan minggu depan (waktu kuliah)

    1. Untuk sumber alphabet S={a,b,c} dan probabilitas P={0.1,0.2, 0.7}:

    a. cari panjang codeword Shannon rata-rata

     b. Spt soal (a) utk semua pasangan yg mungkin dari 3

    huruf di atas.

    2. Suatu sumber S={a,b,c,d,e,f} dg probabilitas P={0.15, 0,16,0,13, 0,20, 0,25, 0,11}. Cari codeword utk masing-masingsimbol dg metoda Shannon.

    3. Dengan menggunakan metoda Shannon-Fano Coding,tentukan codeword utk suatu sumber dg probabilitas berikut

    a. (1/2, 1/4, 1/8, 1/16, 1/16)

     b. (0.4, 0.3, 0.2, 0.1)