Tutorial Terminal Lanjutan #2 - Memproses Teks Seperti Ahli dengan grep, cut, sort, dan uniq 🧰

Halo, detektif data! 🔍
Di dunia nyata, insinyur cloud, developer, dan administrator sistem sering harus menganalisis file log, daftar pengguna, atau data mentah — yang bisa berisi ribuan baris teks!

Beruntungnya, Linux punya **alat ajaib** untuk memotong, menyaring, mengurutkan, dan membersihkan teks hanya dalam satu baris perintah.

Empat alat utama yang akan kamu kuasai hari ini:
grep → cari kata kunci
cut → potong kolom tertentu
sort → urutkan data
uniq → hapus duplikat

🧰 Fakta Keren:
Alat-alat ini disebut “text processing utilities”. Mereka ringan, cepat, dan bisa dikombinasikan seperti LEGO!
Di AWS, kamu akan pakai ini setiap hari untuk menganalisis log server!

1. grep – Cari Kata di Lautan Teks

grep digunakan untuk **mencari baris yang mengandung pola tertentu**.

Contoh dasar:

grep "error" /var/log/syslog

Akan menampilkan semua baris yang mengandung kata error.

Opsi berguna:

  • -i → abaikan huruf besar/kecil: grep -i "ERROR" file.log
  • -v → tampilkan baris yang tidak cocok: grep -v "success" hasil.txt
  • -n → tampilkan nomor baris: grep -n "login" auth.log

2. cut – Potong Kolom Seperti Pisau Digital

Jika datamu terstruktur (misal: dipisah koma atau tab), cut bisa mengambil kolom tertentu.

Contoh: file data.csv berisi:

Nama,Umur,Kota
Andi,12,Jakarta
Budi,13,Bandung
Citra,12,Surabaya

Ambil hanya kolom **Kota** (kolom ke-3, dipisah koma):

cut -d',' -f3 data.csv

Penjelasan:

  • -d',' → delimiter (pemisah) adalah koma
  • -f3 → ambil field/kolom ke-3

3. sort – Urutkan Data dengan Rapi

Mengurutkan baris teks secara alfabet atau numerik.

sort nama_file.txt

Opsi penting:

  • -r → urutkan terbalik (Z ke A)
  • -n → urutkan angka secara numerik (bukan alfabet)
  • -k2 → urutkan berdasarkan kolom ke-2 (untuk data terstruktur)

4. uniq – Hapus Duplikat yang Bersebelahan

uniq menghapus baris yang **sama dan berurutan**.

⚠️ Penting: uniq hanya bekerja jika data sudah diurutkan! Jadi biasanya dipakai setelah sort.

Contoh:

sort daftar.txt | uniq

Opsi berguna:

  • -c → tampilkan jumlah kemunculan: sort file.txt | uniq -c
  • -d → tampilkan hanya yang duplikat

💡 Rahasia Ahli: Gabungkan dengan “Pipe” (|)!
Kamu bisa menggabungkan alat-alat ini menggunakan tanda | (disebut “pipe”).
Contoh: cari error, urutkan, lalu hitung uniknya:
grep "fail" auth.log | sort | uniq -c

Latihan Praktis: Analisis Daftar Siswa!

Buat file bernama siswa.txt dengan isi:

Andi,12,Jakarta
Budi,13,Bandung
Citra,12,Jakarta
Dewi,14,Surabaya
Eko,13,Bandung

Lalu coba perintah ini:

  1. Ambil semua siswa dari Jakarta:
    grep "Jakarta" siswa.txt
  2. Ambil hanya nama mereka:
    grep "Jakarta" siswa.txt | cut -d',' -f1
  3. Urutkan berdasarkan umur (kolom ke-2):
    sort -t',' -k2 -n siswa.txt
  4. Lihat kota unik yang ada:
    cut -d',' -f3 siswa.txt | sort | uniq

“Aku baru saja menganalisis data seperti ilmuwan! Dari file acak jadi informasi berguna — hanya dengan ketikan!” 📊

Kenapa Ini Penting untuk AWS?

Di server cloud, kamu akan sering menghadapi file log seperti:

  • /var/log/nginx/access.log → siapa yang mengakses websitemu?
  • /var/log/auth.log → apakah ada upaya login gagal?
Dengan grep, cut, dan teman-temannya, kamu bisa:
  • Cari serangan brute-force
  • Hitung pengunjung unik
  • Ekstrak alamat IP mencurigakan
Semua dalam hitungan detik!

Penutup

Selamat! Sekarang kamu sudah bisa:

  • ✔ Menyaring teks dengan grep
  • ✔ Memotong kolom dengan cut
  • ✔ Mengurutkan data dengan sort
  • ✔ Membersihkan duplikat dengan uniq
  • ✔ Menggabungkan semuanya dengan |

Ingat: **Data mentah tidak berguna — sampai kamu memprosesnya. Dan kini, kamu punya alatnya!** 💻✨

Previous Post Next Post

نموذج الاتصال