Mohon tunggu...
Zahra tunnihaya romo
Zahra tunnihaya romo Mohon Tunggu... Mahasiswa teknik informatika

Mahasiswa Teknik Informatika Universitas Islam Negeri Maulana Malik Ibrahim Malang, Semester 4 (2025)

Selanjutnya

Tutup

Pendidikan

Revolusi Sunyi di Balik Layar : Saat AI Menjadi Mitra dalam Pengujian Perangkat Lunak

6 Mei 2025   04:15 Diperbarui: 5 Mei 2025   15:41 57
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi Engineer dan Robot QA (Sumber: DALL*E/OpenAI -- Kredit Ilustrasi) 

AI dan QA: Pertemuan Dua Dunia yang Tak Terhindarkan

Pengujian perangkat lunak seringkali menjadi bagian tak terlihat dari proses pengembangan. Tak semewah fitur baru, tak seglamor desain antarmuka. Tapi justru di sanalah kualitas sebuah sistem diuji  dan kini, peran itu mulai dibagi dengan kecerdasan buatan.

Sebuah studi sistematis yang ditulis oleh Junjie Wang dan timnya menunjukkan bahwa Large Language Models (LLM) seperti GPT mulai terintegrasi ke dalam proses software testing. Bukan hanya untuk mendukung pengembang, tapi benar-benar menjadi bagian aktif dalam memastikan bahwa sistem bekerja seperti yang diharapkan.

LLM: Lebih dari Sekadar Penjawab Prompt

Artikel ini membagi peran LLM dalam tiga kategori utama:

  • Sebagai Pencipta (generator): LLM menghasilkan test case berdasarkan deskripsi sistem atau kode sumber.
  • Sebagai Mitra (assistant): LLM membantu menganalisis hasil uji, menyusun laporan, dan menyarankan perbaikan.
  • Sebagai Sasaran (target): Ketika LLM digunakan dalam software, mereka sendiri harus diuji keandalan dan keamanannya.

Ketiganya menunjukkan bahwa LLM telah masuk ke ranah teknis yang sebelumnya hanya diisi oleh manusia dan alat bantu tradisional.

Kesempatan dan Kekhawatiran yang Datang Bersama

Manfaat yang ditawarkan LLM dalam software testing sangat menggoda: efisiensi, otomatisasi, dan kemampuan untuk mengolah konteks kompleks dalam waktu singkat. Namun, artikel ini juga menyoroti risiko besar  mulai dari kesalahan faktual (hallucination), bias data, hingga kurangnya standar penilaian untuk hasil kerja LLM.

Sebagai contoh, LLM bisa saja menghasilkan test case yang tampak masuk akal, tapi tidak relevan atau bahkan menyesatkan. Dalam sistem yang kritikal seperti layanan kesehatan atau transportasi, hal ini bisa berdampak serius.

Infrastruktur dan Etika: Dua Pilar yang Perlu Diperkuat

Dalam diskusi visinya, artikel ini menegaskan bahwa jika LLM ingin diterapkan secara luas dalam dunia QA, maka dibutuhkan:

  • Benchmark khusus untuk mengevaluasi performa LLM dalam konteks testing.
  • Prompt engineering sebagai keterampilan baru QA engineer.
  • Transparansi dan validasi agar hasil LLM dapat ditelusuri dan diuji balik.
  • Etika penggunaan, terutama dalam konteks sistem yang berdampak luas pada masyarakat.

Tanpa keempat elemen ini, kita berisiko menciptakan sistem yang "terlihat cerdas" tapi tak dapat diandalkan.

Bukan Otomatisasi, tapi Augmentasi

Penting untuk dicatat bahwa artikel ini tidak mempromosikan otomatisasi total. Justru, penulis menekankan bahwa kehadiran LLM seharusnya menjadi bentuk augmentasi  memperkuat kapasitas manusia, bukan menggantikannya.

Di masa depan, QA engineer mungkin akan bekerja berdampingan dengan LLM: menyusun prompt yang efektif, memverifikasi hasil yang dihasilkan model, dan mengambil keputusan berbasis interpretasi mesin dan intuisi manusia. Ini adalah bentuk kerja baru yang lebih kolaboratif dan adaptif.

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Pendidikan Selengkapnya
Lihat Pendidikan Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun