Archive for the ‘ Jaringan Komputer ’ Category

Ngrep Network Traffic

Perintah berikut untuk menangkap perintah SPARQL yang dikirim ke SPARQL Endpoint

ngrep -t -qd any ‘(select|ask|construct|describe)’ host localhost and port 8001 or port 8000 -W byline

Iklan

[Teori] Loosely Vs Tightly Coupled

Mungkin ada yang bingung membedakan antara loosely coupled dan tightly coupled seperti saya 😛 Ok, berikut sedikit penjelasan dari saya setalah membaca banyak  literatur. In term of software terutama coding, loosely coupled berarti perancangan yang dibuat secara bebas dan merdeka, sehingga mudah diubah dan lebih fleksibel. Sebagai contoh, jika kita buat class dengan deklarasi interface, maka instance atau yang memakai class tersebut dapat dengan bebas menambahi fungsi dan tidak terikat dengan metode dalam class tersebut.

Sedangkan dalam dunia komputasi, loosely coupled berarti sistem dengan lingkungan berbeda begabung bersama dalam memberikan pelayanan tanpa saling tergantung sama lain.

[AWK] Ekstrak Pita Lebar TCPDump

AWK is really awesome script ! almost of my PhD code rely on AWK. At This time, I wanna share my snippet to extract uplink adn downlink bandwith for certain port in localhost. In this case, suppose that we will investigate port 8000, thus I put regex

(.*)8000:$

ok, let’s play TCPDUMP now.

tcpdump -l -i lo port 8000 -nNqttf > tcpdump

Here is the following awk code to parse each line of tcpdump that are stored in tcpdump file

cat tcpdump | awk -F " " '{
if($5 ~ /(.*)8000:$/)
uplink=uplink+$7
else
downlink=downlink+$7
}
END {
print uplink
print downlink
}'

Above code will produce the number of uplink and downlink in bytes.

[hadoop] tidak cocok untuk file kecil

Riset di daerah clustering, ternyata tidak mudah. Berbagai hal harus dipahami, terutama masalah memori. Beberapa hari yang lalu saya menemukan masalah pada hadoop ketika saya harus menyimpan jutaan files berkuran antara beberapa kilo bytes hingga 1 megabytes ke dalam HDFS. By default, Hadoop mengalokasi 64MB untuk setiap file. File dan Blok terkait menjadi sebuah objek, dimana objek tersebut menggunakan namespace. Celakanya kapasitas namespace ini sangat terbatas. Bisa dibayangkan jika file2 terkecil tersebut menghabiskan namespace hampir 100% padahal hanya memakai 20% dari hardisk.
Untuk itulah Hadoop menyediakan solusi dengan menggunakan HAR (Hadoop Archive). HAR ini mirip dengan TAR dan JAR. Fungsinya adalah mengumpulkan file-file menjadi satu file berekstensi .har.
Cara membuat HAR cukup mudah :

hadoop archive -archiveName namafilehar direktorisumber tempatfilehar

contoh :

hadoop archive -archiveName kumpulan.har /home/iin/data/* /home/iin/

Cara mengakses HAR dari program hadoop/cascading

hadoop jar filejava.jar namaClass fileHARname.har output

Info lebih lanjut bisa dibaca di blog developer yahoo

Instalasi Hadoop

Menggunakan facebook, google, yahoo mungkin hampir tiap hari kita
lakoni. tapi apakah kita tahu bagaimana sistem kerja mereka dalam
menangani jumlah data yang cukup besar. Untuk itulah mereka menggunakan membuat konsep map-reduce dalam pengelolan data mereka. Salah satu program yang menerapkan kosnep map-reduce itu adalah hadoop (dibaca hadup bukan handuk 😆 ). Bentuk logo hadoop sangat lucu, sebuah gajah. Mungkin karena yang ditangani data2 besar. halah kok jadi bahas logo, nggak penting banget. Ok, kita mulai instalasi hadoop ya ! Persyaratan supaya hadoop bisa berjalan dengan komputer, anda harus install java dulu.

  1. Download hadoop
  2. ekstrak hadoop tar xzf hadoop-0.20.2.tar.gz
  3. Export JAVA_HOME atau bisa langsung disetting di hadoop-env.sh yang terletak didirektori conf. Contoh : export JAVA_HOME=/usr/lib/jvm/java-6-openjdk/
  4. Setting core-site.xml, mapred-site.xml, atau anda bisa membiarkan saja sesuai dengan yang terinstall.
    core-site.xml
    <?xml version=”1.0″?>
    <?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>
    <configuration>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/tmp/dir/hadoop-${user.name}</value>
    <description>A base for other temporary directories.</description>
    </property><property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:58887</value>
    <description></description>
    </property>
    </configuration>
    mapred-site.xml
    <?xml version=”1.0″?>
    <?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>
    <configuration>
    <property>
    <name>mapred.job.tracker</name>
    <value>localhost:58888</value>
    <description>
    </description>
    </property>
    </configuration>
  5. Sekarang coba test apakah Hadoop udah bisa jalan
    #bin/start-all.sh
  6. Berikut adalah perintah dalam hadoop yang hampir sama dengan perintah command line di Linux
    • bin/hadoop dfs -copyFromLocal direktorilocal direktorihdfs
    • bin/hadoop dfs -ls direktori
    • bin/hadoop dfs -rm
  7. testing sebuah contoh di hadoop
    bin/hadoop jar hadoop-0.20.0-examples.jar wordcount inputfile outputfile

Apa yang ada di dalam tas saya ?

Gara-gara kehujanan tadi malem, tas ransel yang biasanya saya pakai basah. Sebenarnya ada tas ransel lainnya namun lagi dipinjem temen. Terpaksa deh memakai tas jinjing dibawah ini. Selama ini tas ini memang jarang dipakai .. gak PD sih pake tas beginian. Gimana gitu .. rasanya kok bukan saya.

Biasanya tas wanita begitu isinya apa ya ? Bedak ? Tissue ?

He he barang begituan sih g bakalan ditemukan di tas saya … Baca lebih lanjut

International Workshop on Contactless Security

Inilah pertama kalinya saya diminta sebagai reviewer sebuah konferensi IT internasional (nasional saja belum pernah 😳  ). Doakan bisa jadi reviewer yang baik. Karena tanggal pengirimannya akan segera berakhir, saya coba pasang disini yak. Konferensi ini diadakan di Austria yang berkaitan dengan Konferensi ARES di Jepang. Jika anda berminat untuk menulis penelitian anda yang berkaitan dengan Smart Card dan Near Field Communication, segera saja kirimkan. Berikut saya kopi paste Call of Papernya :

CLESSec – 1st International Workshop on Contactless Security

In conjunction with ARES 2009 Fukoka, Japan, March 16th-19th 2009
Overview

Contactless proximity Technologies such as Smartcards and Near Field Communication are already part of our everyday life. For the consumer unnoticed and simple to use, they are a popular alternative to conventional communication channels. With the integration of these technologies into everyday devices like mobile phones, possibilities and risks for applications arise. The central aim of this workshop is to bring together users, engineers and researchers (from industry and academy) to discuss and identify security and privacy issues related to contactless technologies and applications on top.

Topics

Topics related to any of dependability aspects in contactless technologies, applications and systems are of interest. These include, but are not limited to the following areas:

Secure Hardware

* Secure Hardware for contactless technology
* In-Device Security of contactless (NFC) devices
* Access Control Policies and Permissions for contactless (NFC) devices and ecosystems
* Cryptography and Protocols in RFID and NFC Systems

Applications & Infrastructure

* Security and privacy in contactless applications
* Security and thread models for contactless systems and infrastructures
* Reliability, Robustness, Availability and Integrity of contactless applications
* Secure deployment of mobile contactless applications

Threat and Risk-Models

* Information Security and Risk Management for contactless systems and processes
* Encryption & Authentication and secure protocols for contactless technologies and applications
* Security analysis and methods for evaluation of (implemented) contactless systems and devices

Mobile Trust

* Security and privacy related to SmartCards, Smartcard Webserver, Multiapplication Smartcards, NFC Devices
* Mobile trusted Modules and secure elements in contactless environments
* Trusted Computing in the context of contactless technology

Important Dates

Submission Deadline: October 15th, 2008
Author Notification: November, 20th 2008
Author Registration: November, 30th 2008
Proceedings Version: December 15th, 2008
Conference/Workshop: March 16th -19th, 2009 Baca lebih lanjut