BuSet PPIS volume 4, Musim Dingin Desember 2012
-
Upload
ppi-sendai-ppi-jepang-komsat-miyagi -
Category
Documents
-
view
226 -
download
4
description
Transcript of BuSet PPIS volume 4, Musim Dingin Desember 2012
AUTUMN - WINTER | 2012 | VOLUME 04
Featured Article
Mengatasi Jejaring Sosial Mengatasi Era BIG Data
Research Summary
Analisis Variasi Depth of ClosureSehubungan dengan Keberadaan Bangunan Pantai
Breaking News
Menyongsong Puncak Siklus Matahari ke-24: “What happens at the sun doesn't stay at the sun”
SOUNDof winter
Dwi PranantoPimpinan Redaksi
Jejaring sosial saat ini seperti telah menjadi bagian dari kehidupan kita.
Milyaran orang bergabung ke dalam jejaring sosial dan mengambil manfaat dari
hasil rekayasa teknologi ini. Jutaan orang mengakses jejaring sosial tiap harinya
untuk berinteraksi satu sama lain, berbagi sesuatu, atau memanfaatkan aplikasi
yang ada seperti bermain game. Jika jutaan orang mengakses jejaring sosial tiap
hari atau bahkan tiap jam melalui jaringan internet, dapat dibayangkan betapa
banyaknya data yang harus diolah dalam waktu singkat dan ini bukanlah sesuatu
yang mudah. BuSetPPIS kali ini mengangkat Featured article berkaitan dengan
jejaring sosial bagaimana pengelolaan dan pengolahan big data-nya. Mengelola
data dari milyaran orang pengguna jejaring sosial dengan berbagai macam
interaksinya tentu bukanlah sesuatu yang simple jika kita memikirkannya lebih
jauh, dibutuhkan teknik dan teknologi khusus agar jejearing sosial dapat bekerja
secara efektif dan efisien serta tidak menggangu kenyamana pengguna. Hal ini
akan dibahas dalam artikel brjudul “Mengatasi Jejaring Sosial Mengatasi Era
BIG Data”. Isu terkini lainnya yang diangkat adalah tentang badai matahari yang
belakangan ini menjadi isu panas dan bagaimana efeknya bagi kehidupan kita di
bumi. Artikel dari salah satu “Samurai Sendai” yang baru saja menyelesaikan
studinya di Tohoku University juga turut ditampilkan dalam BusetPPIS edisi kali
ini yang membahas tentang bagaimana pengaruh bangunan pantai terhadap
sedimen pantai.
Buletin Riset Kali ini tampil beda dengan desain yang lebih segar serta dengan
nama baru, yaitu BuSetPPIS. Dengan Desain yang lebih segar dan nama yang lebih
respresentatif kami berharap pembaca dapat lebih nyaman dalam menikmati
artikel. Dan tentu harapan kami masih sama yaitu menjadi jembatan komunikasi
antara pelajar dan peneliti Indonesia di Sendai dan pelajar-pelajar dan
masyarakat Indonesia di negara lain khususnya di Indonesia sendiri.
Salam BuSet!
Sendai, Desember 2012
Redaksi BuSetPPIS
Salam Redaksi,
DAFTAR ISI
cardinaledu.wordpress.com
Featured Article
Mengatasi Jejaring Sosial Mengatasi Era BIG Data
Research Summary
Analisis Variasi Depth of ClosureSehubungan dengan Keberadaan Bangunan Pantai
Breaking News
Menyongsong Puncak Siklus Matahari ke-24: “What happens at the sun doesn't stay at the sun”
2
8
11
Penanggung jawabArif Santoso
Pimpinan RedaksiDwi Prananto
Tim EditorDyah Ayu Lestari
Ikhtiar
KontributorSepti PerwitasariSugianto Angkasa
Widyaningtias
LayouterMuhammad Salman A. F.
FotograferDiptarama
Fuad Ikhwanda
BuSet PPIS diterbitkan setiap 6 bulan oleh
Persatuan Pelajar Indonesia di Sendai
http://sendai.ppijepang.org/
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
Sejak mulai diproduksi
secara massal hingga kini,
komputer sedikit demi
sedikit menjadi bagian dari
keseharian manusia. Dalam
penggunaannya, komputer
melakukan pemprosesan
data, yang seiring
berjalannya waktu
mengalami penumpukan
sehingga ukuran data
tersebut semakin besar. Data
hasil penumpukan tersebut
berbeda dengan apa yang
disebut dengan big data.
Perbedaan utamanya adalah,
pada big data dalam kurun
waktu yang singkat data
yang berukuran petabyte,
exabyte, yottabyte (masing-
masing setara 1015, 1018,
dan 1021 byte) dihasilkan
dan kemudian perlu segera
disimpan, diolah dan
dianalisis karena hasilnya
diperlukan sesegera
mungkin. Saat ini data yang
tergolong ke dalam big data
hanyalah data dari jejaring
sosial (bahasa kerennya:
social network) dan scientific
computing meski tidak
menutup kemungkinan
masuknya kategori data
baru. Dalam tulisan kali ini
penulis hanya akan
membahas bagaimana
mengatasi big data yang
dihasilkan oleh layanan
jejaring sosial.
Mari kita bayangkan
layanan jejaring sosial paling
ngetop saat ini, Facebook
yang memiliki jumlah
pengguna satu milyar. Apa
yang terjadi jika dalam kurun
waktu lima menit semua
pengguna Facebook
melakukan salah satu atau
kombinasi kegiatan dari
membuat post, upload video
dan gambar, bermain Mafia
Wars, chatting dan kegiatan
lainnya? Yup,
dalam waktu
singkat mereka memperoleh
data yang berukuran sangat
besar yang perlu segera
diproses. Ingat, Facebook
adalah layanan yang mesti
berjalan 24 jam setiap
harinya tanpa henti. Bila
salah satu dari kegiatan di
atas terhambat meski hanya
beberapa detik, hal tersebut
bisa membuat pengguna
kesal dan bahkan pindah ke
kompetitor. Pembaca masih
ingat dengan Friendster?
Friendster adalah jejaring
sosial paling ngetop sebelum
MySpace dan Facebook lahir.
Jejaring sosial pada saat itu
tidak sekompleks saat ini,
namun
http://sendai.ppijepang.org/
Mengatasi Jejaring SosialMengatasi Era BIG DataSugiantoAngkasa
cardinaledu.wordpress.com
| 2
FEATURED ARTICLEFEATURED ARTICLE
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
http://sendai.ppijepang.org/
tetap saja memproses data
berukuran besar. Seiring
dengan penambahan jumlah
pengguna, skala data yang
mesti dikelola juga semakin
besar. Sayangnya Friendster
tidak siap dalam menangani
penambahan data yang
berlangsung secara
eksponensial dalam waktu
singkat sehingga layanannya
seringkali menjadi lambat
dan bahkan mati berjam-jam
dan/atau berhari-hari yang
mengakibatkan pengguna
pindah ke Myspace dan
Facebook.
OK, mengelola big data
memang tidak mudah, tetapi
kenapa sulit? Masalahnya
ada pada infrastruktur
perangkat keras dan
perangkat lunak. Kecepatan
CPU memproses data dan
melakukan komputasi
memang membaik setiap
tahunnya. Sayangnya
penambahan kecepatan per
tahun di sisi I/O (harddisk,
jaringan, memori) tidak
sebaik CPU. Adapun yang
dimaksud dengan I/O di sini
adalah proses komunikasi
mikroprosesor dengan dunia
luar yang umumnya berupa
masukan(input) dan
keluaran(output). Umumnya
pengguna awam pernah
menggunakan masukan
sederhana berupa keyboard
atau tetikus dan keluaran
sederhana berupa layar
monitor dan speaker. Namun
untuk pemrosesan big data,
I/O adalah hal yang sangat
sulit karena jumlah data yang
luar biasa banyak mesti
dikoordinasikan. Pernah
bertelepon ria dengan dua
atau tiga orang sekaligus?
Sulit kan? Penulis punya
saran: meski Anda memiliki
jutaan ponsel, jangan pernah
bertelepon ria dengan jutaan
orang sekaligus.
Salah satu hal yang
menghambat atau
memperlambat I/O adalah
kecepatan tulis and baca
harddisk yang stagnan.
Semakin lama memang harga
per giga harddisk semakin
murah, kapasitas ukurannya
(> 3TB) pun semakin besar,
ukuran fisik harddisk juga
semakin kecil, sayangnya
kecepatan baca/tulis nyaris
tidak berubah. Di sini penulis
tidak akan menjelaskan
secara rinci di mana saja
terjadinya hambatan yang
memperlambat I/O. Namun
pada intinya hambatan ini
ada pada infrastruktur
perangkat keras mulai dari
storage, memori, jaringan
dan infrastruktur perangkat
lunak mulai dari
Database/data store, sisi
pemrograman yang masih
serial dan belum paralel,
sampai pada metode
replikasi/duplikasi data. Mari kita bayangkan jalan
tol dimana terdapat banyak
mobil dengan beragam
ukuran dan kecepatan
(100km/jam – 429km/jam).
Nah, karena macet berat mau
tidak mau semua mobil maju
dengan perlahan atau
bahkan tidak bergerak sama
sekali. Sayangnya mobil yang
memiliki kecepatan luar
3 |
Sugianto Angkasa
- Bachelor Degree, Fakultas Ilmu Komputer Universitas Indonesia (2005-2009)- Outsourced IT Consultant & Programmer (2010-2011)- Research Student, Graduate School of Information Science and Technology The
University of Tokyo (2011-2012)- Master Degree, Graduate School of Information Sciences, Tohoku University (2012-...)
Topik Riset:- Data Management System on Big Data, specifically on Social network data- High Performance Computing and File System- Image Processing
FEATURED ARTICLEFEATURED ARTICLE
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
biasa terpaksa hanya
memanfaatkan sepersekian
dari kcepatan tersebut. Hal
yang sama sering terjadi
dalam pengelolaan big data
dimana CPU jarang
digunakan secara optimal.
Perlu diketahui bahwa
semakin tinggi frekuensi
CPU (>3Ghz) semakin besar
pula energi yang dikonsumsi.
Selain itu, harga CPU dengan
spesifikasi tinggi biasanya
sangat mahal.
Kemudian bagaimana
para insinyur IT di Facebook
dan Twitter menangani
masalah ini? Tiap tahunnya
insinyur IT ini meng-upgrade
infrastruktur layanan mereka
dari sisi perangkat keras dan
perangkat lunak karena
kebutuhan yang bertambah
besar seiring dengan
penambahan jumlah
pengguna. Secara umum
terdapat kemiripan antara
“trik” yang mereka gunakan
antara lain:
1.Distributed Cache
Untuk Proses BacaYang dimaksud dengan
“proses baca” di sini adalah
kegiatan seperti membaca
post, membaca message,
melihat video dan gambar,
dll. Karena kecepatan
harddisk yang lambat, mau
tidak mau ≥ 80% dari data
ditempatkan pula di storage
tercepat, yaitu RAM untuk
mempercepat proses akses
data. Itulah ide pokok dari
distributed cache.
Sebenarnya terminologi
distributed cache lebih
kompleks dari gambaran
singkat tersebut, namun
rasanya sudah cukup agar
pembaca mengerti konsep
yang dijelaskan di tulisan ini.
Perhatikan Tabel 1 untuk
melihat perbandingan
statistik antar storage.
Harddisk tetap berperan
sebagai tempat
penyimpanan data utama
karena RAM bersifat volatile
(bila listrik mati maka data
lenyap). Bisa dilihat
walaupun RAM adalah
storage dengan kecepatan
akses tercepat, harganya pun
paling mahal dan boros
energi. Tentunya para
insinyur tersebut berusaha
keras untuk mengurangi
tagihan yang membengkak
baik dari sisi tagihan listrik
maupun biaya pembelian
storage dengan
mengefektifkan dan
mengefisienkan pemakaian
distributed cache.
2. Merancang Perangkat
Keras SendiriJejaring sosial tidak
membutuhkan proses
komputasi yang rumit namun
sangat haus akan I/O. Poin
utamanya adalah perangkat
keras untuk jejaring sosial
mesti didesain dengan
memperhatikan baik-baik
trade-off antara harga,
kemampuan prosessor dan
energi konsumsi, trade-off
antara harga storage
(harddisk, flash (SSD), RAM)
dengan kecepatan I/O dan
dengan energi konsumsi dan
masih banyak pertimbangan
lainnya. Kebutuhan ini
umumnya tidak ter-cover
oleh vendor server pada
umumnya seperti IBM, Dell,
HP, dll. Maka dari itu, tidak
aneh apabila pengelola
jejaring sosial langsung
memesan prosessor khusus
ke Intel, memesan DRAM ke
Elpida, membeli harddisk
dari Seagate dan kemudian
merancang server sendiri
dan memproduksinya secara
massal di Taiwan atau China.
Dengan menghilangkan
perantara vendor seperti
Dell dan HP harga server
Tabel 1. Statistik Berbagai Storage [4],[5], Amazon.com
http://sendai.ppijepang.org/| 4
FEATURED ARTICLEFEATURED ARTICLE
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
www.kidstoday.in
bisa ditekan semurah
mungkin. Saat ini jejaring
sosial masih
mempertimbangkan untuk
merancang dan
memproduksi (di China
tentunya) prosessor dan
perangkat lainnya sendiri
sehingga tidak menutup
kemungkinan ke depannya
mereka tidak lagi
bergantung pada Intel atau
produsen lainnya. Hal ini
masuk akal karena jejaring
sosial membutuhkan
perangkat keras dalam
jumlah sangat besar. Penulis
pernah mendengar bahwa
Google, pemilik jejaring
sosial Google+, berbelanja
prosessor dari Intel dengan
jumlah yang mendekati
pembelian vendor seperti HP
dan Dell.
3. Pemakaian NoSQL
Data StoreTahu database? Secara
sangat singkat database
adalah program yang
dipercaya untuk mengelola
data selama tiga puluh tahun
terakhir. Meski
masih valid
untuk berbagai
aplikasi,
database tidak
sanggup
mengatasi skala
data dari big
data dengan
murah. Lho kan
ada banyak
pilihan sangat
murah seperti
MySQL? Sayangnya untuk
mengatasi skala big data,
dibutuhkan database dengan
harga selangit seperti
Oracle. Di lain pihak,
database selalu
membutuhkan perangkat
keras yang tangguh (baca:
sangat mahal), tidak bisa
perangkat keras yang biasa-
biasa. Pada akhirnya secara
bertahap jejaring sosial
melakukan migrasi dari
database ke NoSQL. Waduh,
NoSQL? NoSQL didesain
sesimpel mungkin dengan
fitur-fitur seadanya agar bisa
mengelola data dengan skala
yang luar biasa besar
dengan biaya yang sangat
murah. NoSQL juga
tidak memiliki
requirement
perangkat keras
yang tinggi.Perlu diketahui
bahwa database
selama tiga puluh tahun
terakhir memang didesain
untuk mengatasi semua jenis
data mulai dari perbankan,
ilmiah dll(bahasa kerennya:
general purpose). Nah,
jejaring sosial justru tidak
membutuhkan fitur-fitur
canggih database dan
menginginkan perangkat
lunak yang bisa menangani
kebutuhan data jejaring
sosial yang benar-benar
spesifik. Karena itulah NoSQL
bisa bekerja dengan sangat
cepat dan dengan biaya yang
sangat murah. Sebenarnya
masih banyak perbedaan di
antara keduanya, namun
penulis tidak akan
menjelaskannya di sini.
4. Optimisasi Dari Sisi
AlgoritmaJejaring adalah graph
(graf) yang berukuran sangat
besar. Umumnya kita hanya
berinteraksi dengan friend,
bukan dengan seluruh
pengguna Facebook.
Informasi ini bisa digunakan
untuk mengefektifkan
penyimpanan dan duplikasi
data. Contoh simpelnya:
data-data anggota PPIS
ditempatkan di tempat/node
yang sama karena mereka
http://sendai.ppijepang.org/ 5 |
FEATURED ARTICLEFEATURED ARTICLE
http://www.mcginnismedia.com/wp-content/uploads/2012/09/Social-Media-mcginnis-media.jpg
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
setidaknya akan berinteraksi
satu sama lain. Bayangkan
biaya (jaringan, komunikasi,
konsumsi energi) untuk
menarik data
chatting/message/post rutin
PPIS apabila data-data
anggota PPIS ditempatkan
secara acak di 100
tempat/node berbeda dan
berjauhan. Biasanya lokasi
tempat penyimpanan data
ditentukan secara random
(baca: distributed hash) oleh
sistem, namun karena data-
data jejaring sosial justru
memiliki ikatan satu sama
lain layaknya ikatan atom dan
senyawa, sebaiknya tidak
dipisahkan melainkan
ditempatkan sedekat
mungkin untuk mengurangi
biaya per operasi tulis
maupun baca. Perhatikan
Gambar 1 untuk contoh yang
lebih sederhana.
Masih banyak cara lain
yang bisa digali seperti
penggunaan storage secara
bertingkat. Bayangkan data
center yang memiliki
bermacam-macam storage
yaitu harddisk dan flash
(SSD) sebagai tempat
penyimpanan utama dan
DRAM sebagai cache. Cache
adalah memori/tempat
penyimpanan dengan akses
tercepat namun bersifat
sementara. Bersifat
sementara karena
apabila aliran listrik
terputus maka data
dalam DRAM akan
hilang. Selain itu, harga
per giga DRAM sangat
mahal dan boros
energi sehingga sebisa
mungkin
pemakaiannya dibatasi.
Perhatikan kembali
Tabel 1 untuk melihat
perbandingan statistik
antara storage. Di lain
pihak meskipun flash bekerja
lebih cepat daripada
harddisk dengan tingkat
konsumsi energi paling
rendah, harganya juga tidak
murah. Dari sisi biaya,
menyimpan seluruh data
jejaring sosial dalam flash
bukanlah tindakan yang
bijaksana. Sampai saat ini
harddisk tetap menjadi
pilihan utama meski bekerja
paling lambat dan agak
boros energi karena
harganya sangat murah.
Seberapa murah? Apakah
pembaca memiliki akun
webmail Yahoo atau Hotmail?
Mailbox storage-nya
unlimited kan? Nah, harga
harddisk sedemikian murah
sehingga layanan gratis pun
tidak berkeberatan
memberikan storage sebesar
itu. Layanan tersebut takkan
berani memberikan tawaran
yang sama umpama mereka
mengandalkan SSD sebagai
tempat penyimpanan utama.
Setidaknya tidak untuk saat
ini.
Data center yang baik
mesti memperhatikan
banyak faktor antara lain:
biaya perangkat keras dan
lunak, energi konsumsi
Gambar 1. Graph Partitioning Jejaring Sosial
http://sendai.ppijepang.org/| 6
Gambar 2. Skenario Perpindahan Data
Pada Storage Bertingkat
FEATURED ARTICLEFEATURED ARTICLE
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
1010001011001
Referensi[1] Big data in real time at Twitter.Nick Callen.2012[2] Facebook: social network at scale.Sanjeev Kumar.2012.[3] Josep M. Pujol, Vijay Erramilli, Georgos Siganos, Xiaoyuan Yang, Nikos Laoutaris, Parminder Chhabra,
and Pablo Rodriguez. 2010. The little engine(s) that could: scaling online social networks. SIGCOMM Comput. Commun. Rev. 40, 4 (August 2010), 375-386.
[4] John Ousterhout, et all. The Case for RAMClouds: Scalable High-performance Storage Entirely in DRAM. SIGOPS Oper. Syst. Rev.,vol. 43, no. 4, pp. 92–105, Jan. 2010.
[5] Andersen, D., Franklin, J., Kaminsky, M., et al., “FAWN: A Fast Array of Wimpy Nodes”, Proc. 22nd Symposium on perating Systems Principles,
2009
(berhubungan dengan
tagihan listrik), dan tentunya
performance sistem. Untuk
memenuhi kebutuhan
tersebut sistem perlu
melakukan trade-off antara
biaya dan performance
tergantung pada situasi dan
kondisi yang selalu berubah-
ubah. Perhatikan kedua
skenario di bawah ini:1. Pengguna aktif harian
salah satu jejaring sosial
bernama (samaran. Red) Ren.
Ren pastinya sangat "aktif"
sehingga sebaiknya datanya
disimpan di flash dengan
data-copy ditempatkan pula
pada cache untuk
mempercepat proses baca.
Data-copy di cache akan
dihapus segera setelah Ren
logout dan tersedia kembali
di cache bila Ren akan
segera login.2. Pengguna bulanan
(hanya login sebulan sekali)
jejaring sosial bernama
Sakura. Setelah Sakura
logout, kemungkinan besar
dalam waktu dekat Sakura
tidak akan "aktif" di jejaring
sosial. Buang data-copy di
cache. Sedangkan tempat
penyimpanan utama data
Sakura bisa berada di flash
atau harddisk. Tergantung
pada situasi, data Sakura
mungkin perlu dipindahkan
dari flash ke harddisk atau
sebaliknya. Ingat di sini kita
benar-benar memindahkan
data, bukan hanya
menempatkan data-copy
seperti pada cache.
Dengan kata lain sistem
bisa secara dinamis dan
sistematis memindahkan
data ke storage yang lebih
cepat bila diketahui datanya
akan segera diakses atau
memindahkan data ke
storage yang lebih lambat
apabila dalam waktu dekat
data pengguna tidak akan
diakses. Perhatikan Gambar
2 untuk gambaran singkat
mengenai penggunaan
storage secara bertingkat.
Lho, bagaimana cara
menebaknya? Educated
guess secara heuristik yang
memang hasilnya tidak akan
100% tepat. Dari satu milyar
pengguna Facebook,
terdapat pengguna aktif
harian, pengguna bulanan,
dan pengguna yang sudah
tidak aktif lagi seperti yang
telah dijelaskan pada
skenario di atas. Terlebih lagi
sebagian besar pengguna
memiliki jam-jam tertentu
untuk mengakses jejaring
sosial. Pelajar tidak mungkin
mengakses layanan tersebut
saat pelajaran berlangsung
dan pekerja juga tidak
mungkin mengakses jejaring
sosial pada saat jam kerja.
Intinya behavior pengguna
dikumpulkan dan diambil
kesimpulannya. Informasi
penting ini digunakan oleh
sistem untuk mengelola big
data secara efisien dan
efektif. Riset penulis
berkaitan erat dengan
pengelolaan big data pada
jejaring sosial secara
algoritmik menggunakan
kedua metode yang
dijelaskan di atas. Adapun
tujuan dari riset ini adalah
memudahkan pengelolaan
big data pada jejaring sosial
sekaligus mengurangi biaya
pengoperasian layanan
tersebut.
http://sendai.ppijepang.org/ 7 |
FEATURED ARTICLEFEATURED ARTICLE
Dalam studi ini efek dari bangunan pantai
terhadap perubahan depth of closure (hc) dan
kondisi hidrodinamik dalam laut akan
dianalisa untuk kasus pantai berpasir. Definisi
depth of closure sendiri, sesuai dengan teori
dari Hallermeier (1981), Birkemeier (1985)
dan (Kraus et al., 1999), terkait dengan posisi
batas dimana di dalam laut sedimen tidak
bergerak secara signifikan seperti yang
dapat dilihat pada Gambar 1. Pergerakan
sedimen dalam batas ini juga tidak akan
mempengaruhi perubahan garis pantai. Data
batimetri diaplikasikan untuk memperkirakan
lokasi dari depth of closure. Elevasi rata-rata
dan deviasi standart dihitung berdasar data
batimetri tersebut. Perkiraan lokasi depth of
closure juga dihitung menggunakan
perhitungan empirik dari rumus Sato dan
Analisis variasi depth of closure sehubungan dengan keberadaan bangunan pantai
Widyaningtias
http://sendai.ppijepang.org/| 8
RESEARCH SUMMARY
Tanaka (1962) sebagai pembanding.
Tinggi gelombang, periode dan ukuran
sedimen akan menjadi parameter lain
yang dipertimbangkan.
Pendepakatan yang diusulkan dalam
studi ini sedikit berbeda dengan
pendekatan umum yang digunakan pada
studi sebelumnya. Pada studi-studi lain
http://sendai.ppijepang.org/ 9 |
depth of closure biasanya dihitung sebagai nilai
konstan. Sementara, dalam kondisi
sesungguhnya di alam, tidaklah mungkin hal
tersebut terjadi. Karena itu dalam studi kali ini,
depth of closure akan dihitung sebagai variasi
dalam arah paralel dengan garis pantai. Hal ini
akan sangat berguna untuk mendekati kondisi
hidrodinamik yang terjadi di alam, terlebih
dengan keberadaan bangunan pantai. Bangunan
pantai sendiri akan mempengaruhi pergerakan
sedimen dan juga kondisi hidrodinamik di laut.
Selanjutnya, hasil yang lebih akurat bisa
didapatkan saat mengaplikasikan pendekatan
ini dalam bidang rekayasa pantai, misalnya
untuk kasus perhitungan artificial beach
nourishment (Stive et al., 1991, Davidson et al.,
1992; Stauble et al., 1993), perhitungan sediment
budget dan analisis perubahan garis pantai
dengan menggunakan One Line Model
(Capobianco et al., 2002).
RESEARCH SUMMARYRESEARCH SUMMARY
WidyaningtiasMenempuh pendidikan S1-S2 di Institut Teknologi
Bandung (ITB). Sejak tahun 2009 hingga 2012
menjalani pendidikan S3 dalam bidang Teknik Sipil
Tohoku University. Sekembalinya ke Indonesia saat
ini menjadi staf peneliti di Jurusan Teknik Sipil ITB.
RESEARCH SUMMARYRESEARCH SUMMARY
Dalam studi ini, pendekatan variasi depth
of closure diaplikasikan untuk dua studi
area, Sendai Port dan Yuriage Port di Miyagi
Prefecture, Jepang. Perbandingan hasil
analisis studi terbaru dengan studi
terdahulu juga dapat diobservasi dari
Gambar 2. Dalam hal ini Sendai Port
memiliki breakwater dengan panjang
kurang lebih 2000m dan dibangun dengan
sudut tertentu terhadap garis pantai.
Sedangkan untuk Yuriage Port, terdapat
breakwater dengan panjang 700m dan
dibangun tegak lurus terhadap garis pantai.
Besaran panjang dan sudut dari bangunan
pantai ternyata mempengaruhi lokasi depth
of closure, dimana bangunan pantai yang
lebih panjang dan bersudut memberikan
efek depth of closure yang lebih dalam
dibanding dengan bangunan yang lebih
pendek dan dibangun tegak lurus terhadap
garis pantai.
Referensi:Birkemeier, W. A.: Field data on seaward limit of profile change., Journal of Waterway, Port, Coastal and
Ocean Engineering, Vol.111, No.3, pp.598-602, 1985.Capobianco, M., Hanson, H., Larson, M., Steetzel, H.J., Stive, M.J.F., Chatelus, Y., Hamm, L., Aarninkhof, S.
and Karambas, T.: Nourishment design and evaluation: applicability of model concepts, Coastal Engineering, Vol. 47, pp.113– 135, 2002.
Davison, A.T., Nicholls, R.J. and Leatherman, S.P.: Beach nourishment as a coastal management tool: An annotated bibliography on developments associated with the artificial nourishment of beaches, Journal of Coastal Research, Vol.8, pp.984-1022, 1992.
Hallermeier, R.J.: A profile zonation for seasonal sand beaches from wave climate, Coastal Engineering, Vol.4, pp.253–277, 1981.
Kraus, N.C., Larson, M. and Wise, R.A.: Depths of closure in beach fill design, Proc. 12th National Conf. of Beach Preservation Technology, Shore and Beach Preservation Association, pp. 271-286, 1999.
Nomura, K., Uda, T., Inaba, A. and Miyauchi, T.: Deformation of sand spit at the mouth of Abukuma River, Proc. of Coastal Engineering, JSCE, Vol. 33, pp.267-271 (in Japanese), 1986.
Sato, S. and Tanaka, N.: Sand motion on the horizontal bottom under waves, Proc.9th Japanese Conf. on Coastal Eng., pp.95-100 (in Japanese), 1962.
Stauble, D.K., Garcia A.W. and Kraus N.C.: Beach nourishment project response and design evaluation: Ocean City, Maryland, Report 1, 1988- 1992, Tech. Report CERC 93-13, CERC, US Army WES, Vicksburg, MS, 1993.
Stive, M.J.F., Roelvink, J.A. and DeVriend, H.J.: Large scale coastal evolution concept. Proc. 22nd Coastal Eng. Conf., ASCE, pp.1962–1974, 1990.
Uda, T.: Beach erosion in Japan, Sankaido, 442p (in Japanese), 1997.
http://sendai.ppijepang.org/| 10
Gambar 2. Variasi dari depth of closure (a)Sendai Port
(b)Yuriage Port
(a)
(b)
BREAKING NEWSBREAKING NEWS
http://sendai.ppijepang.org/ 11 |
Masih ingatkah kita pada kehebohan
beberapa tahun lalu tentang Kiamat 2012? Isu
tersebut muncul berdasarkan kalender suku
Maya yang akan habis pada tanggal 21
Desember 2012. Dari sisi ilmiah, pada saat itu
beberapa peneliti matahari memprediksikan
bahwa puncak aktivitas matahari akan jatuh
sekitar akhir 2012 dan akan lebih intens
dibandingkan puncak-puncak sebelumnya.
Artikel ini tidak akan membahas tentang
benar atau tidaknya dunia kita akan kiamat
akhir tahun ini, tetapi akan membahas kenapa
puncak aktivitas matahari perlu kita
waspadai. Berdasarkan data bulanan sampai
dengan Oktober 2012, NOAA/Space Weather
Prediction Center memprediksikan bahwa
puncak siklus matahari ke-24 akan jatuh
sekitar bulan Mei 2013. Hal ini tampaknya
dianggap masalah serius bagi negara-negara
yang berada di daerah lintang tinggi,
sehingga Juni lalu Amerika dan Inggris
menandatangani kesepakatan
kerjasama untuk mitigasi
dampak dari badai matahari
tersebut.
Seperti yang kita ketahui,
aktivitas matahari mempunyai
siklus 11 tahunan yang berarti bahwa setiap
11 tahun sekali, aktivitas matahari akan
mencapai puncaknya. Apa yang terjadi saat
itu? Ketika aktivitas matahari tinggi, frekuensi
dan intensitas radiasi dan badai geomagnetik
di bumi akan semakin tinggi.
Solar cycle progression: http://www.swpc.noaa.gov/SolarCycle/
Menyongsong Puncak Siklus Matahari ke-24:
“What happens at the sun does not stay at the sun”
SeptiPerwitasari
Sumber gambar: http://www.climatepedia.org/MagnetosphereAurora borealis: http://marknwt.blogspot.jp/2011/01/happy-friday-aurora-borealis.htmlHydro-quebec: http://www.solarweek.org/CS/t/1300.aspx
BREAKING NEWSBREAKING NEWS FEATURED ARTICLEFEATURED ARTICLE
http://sendai.ppijepang.org/| 12
Dengan semakin
tergantungnya kita dengan
teknologi berbasis satelit,
ancaman badai matahari ini
menjadi hal yang sangat
vital. Erupsi besar di
matahari akan menyebabkan
terlontarnya partikel-partikel
berenergi tinggi ke ruang
angkasa dan akan
menganggu satelit dan
wahana antariksa yang
mengorbit bumi. Partikel
berenergi tinggi dari
matahari yang biasanya
disertai dengan angin
matahari berkecepatan
tinggi, 300-1000 km/s ketika
mengarah ke bumi akan
mengubah medan magnet
bumi dan membentuk
magnetosfer. Medan magnet
bumi ini berfungsi sebagai
pelindung dari partikel
berenergi tinggi dan angin
matahari. Sebagian besar
dari partikel-partikel ini
dibelokkan oleh
magnetosfer dan sebagian
lagi terperangkap. Partikel-
partikel yang terperangkap
ini kemudian mengalami
percepatan sepanjang garis
medan magnet menuju kutub
bumi dan berinteraksi
(mengeksitasi) atmosfer
yang kemudian membentuk
aurora.
Arus listrik yang mengalir
saat terjadi aurora
mengganggu kerapatan
elektron di ionosfer
sehingga berakibat
terganggunya komunikasi
radio jarak jauh dan juga
terganggunya sinyal dari
satelit ke bumi yang
melewati ionosfer. Radio
blackout
total juga
bisa
terjadi
dan tidak
kalah
pentingny
a adalah
tergangg
unya
sistem
navigasi
global menggunakan GPS
dikarenakan kerapatan
elektron yang jauh dari
normal di ionosfer yang
dilewati sinyal GPS tersebut.
Badai geomagnetik yang
sangat besar juga berpotensi
merusak jaringan listrik di
bumi. Pemadaman listrik
besar-besaran pernah terjadi
di Quebec, Kanada tahun
1989. Pada saat itu terjadi
badai geomagnetik besar
yang menyebabkan mati
totalnya Hydro-Quebec,
jaringan listrik yang
melayani wilayah tersebut.
Auroral current ini juga
akan memanaskan atmosfer
sehingga menyebabkannya
mengembang yang akan
mempengaruhi orbit satelit
LEO (Low Earth Orbit) yang
mengorbit bumi pada
ketinggian ~400 km. Oleh
karena itu, sangat penting
untuk mendorong satelit-
satelit tersebut secara
periodik agar tidak jatuh ke
bumi.
Septi Perwitasari Menyelesaikan pendidikan S1 di
Jurusan Fisika Universitas Gadjah
Mada tahun 2008. Kemudian
mengabdi di Lembaga
Penerbangan dan Antariksa
Nasional sebagai peneliti di bidang
Ionosfer dan Telekomunikasi dari
tahun 2009 dan sekarang sedang
melaksanakan tugas belajar di
Jurusan Geofisika, Tohoku
University. Topik penelitian yang
dilakukan saat ini adalah gravity
wave yang teramati di airglow
emission sebagai indikator struktur
dan dinamika atmofer atas.E-mail: [email protected]
SOMEWHERE IN SENDAI
http://sendai.ppijepang.org/