10 Teknik Prompt Engineering yang Wajib Dikuasai Semua Profesi termasuk Developer
Di era Artificial Intelligence (AI) saat ini, teknik prompt engineering menjadi kunci utama untuk mengoptimalkan output yang dihasilkan Generative AI dan Large Language Models (LLM) seperti ChatGPT, Gemini, dan Claude, Perplexity.
Teknik prompting bukan lagi keterampilan khusus untuk para programmer atau AI researcher saja loh! Teknik prompting jadi skill penting bagi siapa pun mulai dari pelajar, dosen, ASN, programmer, pebisnis, tenaga kesehatan, hingga pimpinan perusahaan. Semua jabatan dan profesi bisa merasakan manfaatnya.
Apa itu Prompt Engineering?
Prompt engineering adalah teknik merancang, menyusun, dan mengoptimalkan perintah untuk memandu model AI menghasilkan output jawaban yang kita inginkan.
Istilah ini sering juga disebut sebagai Prompting atau Prompt Design.
Teknik ini memanfaatkan kemampuan Natural Language Processing/NLP dan Natural Language Understanding/NLU dari AI.
Dengan prompt yang dirancang dengan baik, AI dapat memberikan jawaban yang lebih tepat, no bias, dan menjalankan instruksi kompleks dengan lebih baik.
Baca juga : Implementasi Generative AI untuk Layanan Digital
Berikut adalah 10 teknik prompt engineering yang terbukti optimal
1. Chain-of-Thought (CoT) Prompting
Teknik ini seperti meminta AI menjelaskan alur berpikirnya step by step. Jadi, bukan hanya memberikan jawaban, tetapi juga menjabarkan logika atau proses yang digunakan.
Kelebihan: Lebih transparan, mudah dilacak, dan meminimalisir kesalahan.
Kekurangan: Biasanya linear, jadi agak sulit kalau ingin mundur ke langkah awal.
Contoh:
“Jelaskan proses menghitung luas segitiga sama sisi dengan panjang sisi 6 cm, langkah demi langkah.”
2. Zero-Shot Prompting
Zero-shot prompting meminta model berarti memberi perintah tanpa contoh sama sekali.
Teknik ini mengandalkan pengetahuan dasar (pre-trained knowledge) dan kemampuan inferensi yang sudah dimiliki oleh LLM.
Contoh dalam bisnis:
“Buatkan email penawaran produk SaaS baru untuk calon klien.”
Teknik ini cocok untuk tugas-tugas umum yang tidak membutuhkan konteks atau gaya khusus, seperti terjemahan sederhana, summarization, atau generate ide awal.
Baca juga : Implementasi Generative AI untuk Layanan Digital
3. Few-Shot Prompting
Berbeda dengan zero-shot, teknik ini memberi beberapa contoh (2–5 contoh) sebelum AI diminta menjawab. Dengan contoh tersebut, AI lebih mudah memahami pola dan memberikan jawaban yang konsisten.
Contoh:
“Berikut contoh tagline produk:
- Fresh and Fast: untuk makanan fast food.
- Secure Your Data: untuk layanan keamanan digital.
Sekarang buatkan tagline untuk aplikasi manajemen keuangan.”
Teknik ini cocok saat Anda membutuhkan konsistensi format, gaya penulisan, atau klasifikasi dengan kategori khusus.
4. Retrieval Augmented Generation (RAG)
RAG (Retrieval Augmented Generation) adalah teknik yang menggabungkan kemampuan generative AI dengan sumber pengetahuan eksternal.
LLM memang pintar, tapi pengetahuannya terbatas pada data saat dilatih. Dengan RAG, AI bisa mengambil informasi terbaru dari database, dokumen, atau sumber lain, lalu menggunakannya untuk menyusun jawaban.
Contoh: Seorang analis hukum ingin tahu aturan terbaru soal perlindungan data pribadi. Dengan RAG, AI bisa mengambil isi UU Perlindungan Data Pribadi lalu merangkum secara relevan.
RAG cocok untuk tugas seperti sentiment analysis, named entity recognition, atau QA yang butuh konteks tambahan. Hasilnya, AI jadi bukan hanya pintar, tapi juga terinformasi dan lebih akurat.
Baca juga : Pelatihan Deep Learning Python
5. Prompt Chaining
Prompt chaining artinya menyusun prompt dalam bentuk rantai instruksi. Output dari satu prompt digunakan sebagai input untuk prompt berikutnya.
Teknik ini cocok untuk tugas kompleks yang perlu dipecah menjadi beberapa bagian.
Contoh:
Prompt 1: “Tuliskan poin-poin utama artikel tentang AI di bidang kesehatan.”
Prompt 2: “Kembangkan poin nomor 3 menjadi paragraf penjelasan.”
6. Tree-of-Thoughts (ToT) Prompting
Kalau CoT berpikir linear, ToT berpikir non-linear seperti manusia. Teknik ini mengexplore beberapa jalur reasoning secara paralel, seperti pohon.
Manfaatnya: AI bisa mempertimbangkan berbagai kemungkinan solusi, mirip seperti manusia saat brainstorming.
Contoh Implementasi:
Untuk memecahkan teka-teki logika, AI dapat membuat beberapa hipotesis awal, lalu mengujinya satu per satu, menghilangkan hipotesis yang terbukti salah, dan fokus pada jawaban yang paling akurat.
7. Meta Prompting
Meta prompting adalah prompting yang jelas dan detail mulai dari gaya bahasa, panjang jawaban, hingga format output.
Contoh:
“Tolong buatkan ringkasan artikel ini dalam 200 kata, gunakan bahasa yang formal tapi mudah dipahami, dan sertakan poin-poin penting dalam bentuk bullet list.”
8. Generated Knowledge Prompting
Teknik ini membuat AI menggunakan kembali pengetahuan yang dihasilkannya sendiri. Jadi, AI diminta untuk mengingat, menyusun, lalu memperdalam informasi dari jawaban sebelumnya.
Contoh:
Prompt Fase 1 (Knowledge Generation): "Jelaskan tiga prinsip utama sustainable design dalam arsitektur."
Prompt Fase 2 (Knowledge Utilization): "Berdasarkan tiga prinsip yang kamu jelaskan di atas, rancanglah sebuah konsep untuk rumah sustainable skala kecil yang menerapkan prinsip-prinsip tersebut."
9. Self-Consistency Prompting
Teknik ini meminta AI menjawab berkali-kali dengan pendekatan berbeda, lalu memilih jawaban yang paling konsisten.
Contoh:
“Tolong berikan 3 jawaban berbeda untuk soal ini, lalu simpulkan mana yang paling logis.”
10. Program-Aided Language Models (PAL) dengan LangChain & GPT-3
Program-Aided Language Models (PAL) adalah gabungan LLM dengan Python code execution untuk menghasilkan jawaban yang lebih presisi.
Mari kita lihat sebuah real case menggunakan LangChain dan OpenAI GPT-3. Misalnya, kita ingin membangun aplikasi sederhana yang bisa menafsirkan pertanyaan tentang tanggal dan memberikan jawaban yang akurat dengan bantuan interpreter Python.
🔧 Persiapan Library
import openai
from datetime import datetime
from dateutil.relativedelta import relativedelta
import os
from langchain.llms import OpenAI
from dotenv import load_dotenv
⚙️ Konfigurasi API & Model
load_dotenv()
# API configuration
openai.api_key = os.getenv("OPENAI_API_KEY")
# for LangChain
os.environ["OPENAI_API_KEY"] = os.getenv("OPENAI_API_KEY")
📝Setup prompt + question:
question = "Today is 27 February 2023. I was born exactly 25 years ago. What is the date I was born in MM/DD/YYYY?"
DATE_UNDERSTANDING_PROMPT = """
# Q: 2015 is coming in 36 hours. What is the date one week from today in MM/DD/YYYY?
# If 2015 is coming in 36 hours, then today is 36 hours before.
today = datetime(2015, 1, 1) - relativedelta(hours=36)
# One week from today,
one_week_from_today = today + relativedelta(weeks=1)
# The answer formatted with %m/%d/%Y is
one_week_from_today.strftime('%m/%d/%Y')
# Q: The first day of 2019 is a Tuesday, and today is the first Monday of 2019. What is the date today in MM/DD/YYYY?
# If the first day of 2019 is a Tuesday, and today is the first Monday of 2019, then today is 6 days later.
today = datetime(2019, 1, 1) + relativedelta(days=6)
# The answer formatted with %m/%d/%Y is
today.strftime('%m/%d/%Y')
# Q: The concert was scheduled to be on 06/01/1943, but was delayed by one day to today. What is the date 10 days ago in MM/DD/YYYY?
# If the concert was scheduled to be on 06/01/1943, but was delayed by one day to today, then today is one day later.
today = datetime(1943, 6, 1) + relativedelta(days=1)
# 10 days ago,
ten_days_ago = today - relativedelta(days=10)
# The answer formatted with %m/%d/%Y is
ten_days_ago.strftime('%m/%d/%Y')
# Q: It is 4/19/1969 today. What is the date 24 hours later in MM/DD/YYYY?
# It is 4/19/1969 today.
today = datetime(1969, 4, 19)
# 24 hours later,
later = today + relativedelta(hours=24)
# The answer formatted with %m/%d/%Y is
today.strftime('%m/%d/%Y')
# Q: Jane thought today is 11/3/2002, but today is in fact Mar 12, which is 1 day later. What is the date 24 hours later in MM/DD/YYYY?
# If Jane thought today is 11/3/2002, but today is in fact Mar 12, then today is 12/3/2002.
today = datetime(2002, 3, 12)
# 24 hours later,
later = today + relativedelta(hours=24)
# The answer formatted with %m/%d/%Y is
later.strftime('%m/%d/%Y')
# Q: Jane was born on the last day of February in 2001. Today is her 16-year-old birthday. What is the date yesterday in MM/DD/YYYY?
# If Jane was born on the last day of February in 2001 and today is her 16-year-old birthday, then today is 16 years later.
today = datetime(2001, 2, 28) + relativedelta(years=16)
#Yesterday,
yesterday = today - relativedelta(days=1)
# The answer formatted with %m/%d/%Y is
yesterday.strftime('%m/%d/%Y')
# Q: {question}
""".strip() + '\n'
llm_out = llm(DATE_UNDERSTANDING_PROMPT.format(question=question))
print(llm_out)
📤 Output dari LLM
Hasil yang dikeluarkan oleh model berupa snippet kode Python:
# If today is 27 February 2023 and I was born exactly 25 years ago, then I was born 25 years before.
today = datetime(2023, 2, 27)
# I was born 25 years before,
born = today - relativedelta(years=25)
# The answer formatted with %m/%d/%Y is
born.strftime('%m/%d/%Y')
▶️ Eksekusi Hasil Kode
exec(llm_out)
print(born)
Outputnya: 02/27/1998
Dengan pendekatan ini, kita bisa mengubah reasoning natural language menjadi kode Python yang dapat dieksekusi. PAL memungkinkan LLM bertindak lebih dari sekadar "pemberi teks", tapi juga sebagai co-pilot pemrograman yang membantu menyelesaikan Logic based problems.
Baca juga : Pelatihan Deep Learning Python
Tabel Ringkasan Teknik Prompt Engineering
|
No |
Teknik Prompting |
Cara Kerja |
Kelebihan |
|
1 |
Chain-of-Thought (CoT) |
AI menjelaskan langkah demi langkah |
Lebih transparan dan bisa ditelusuri |
|
2 |
Zero-Shot |
Tanpa contoh, langsung perintah |
Menguji kemampuan dasar AI |
|
3 |
Few-Shot |
Beri 2–5 contoh sebelum tugas |
Lebih konsisten dan terarah |
|
4 |
Retrieval-Augmented Generation (RAG) |
LLM mengambil informasi dari basis data/dokumen eksternal lalu menggunakannya untuk menjawab. |
LangChain + GPT-3 dengan FAISS/Pinecone untuk Q&A dokumen hukum. |
|
5 |
Prompt Chaining |
Rantai instruksi bertahap |
Cocok untuk tugas kompleks |
|
6 |
Tree-of-Thoughts (ToT) |
Eksplorasi banyak jalur pemikiran |
Lebih kreatif dan fleksibel |
|
7 |
Meta Prompting |
Instruksi detail (format, gaya, dll.) |
Output lebih sesuai ekspektasi |
|
8 |
Generated Knowledge |
Gunakan pengetahuan yang dihasilkan AI |
Lebih dalam dan berkesinambungan |
|
9 |
Self-Consistency |
Bandingkan banyak jawaban, pilih terbaik |
Hasil lebih akurat dan konsisten |
|
10 |
Program-Aided Language Models (PAL) |
LLM menghasilkan kode (misalnya Python) sebagai langkah reasoning, lalu dieksekusi. |
LangChain + GPT-3 untuk perhitungan tanggal dengan Python interpreter. |
Baca juga : Implementasi Generative AI untuk Layanan Digital
Pentingnya Prompt Engineering dalam Generative AI
Teknik-teknik prompt engineering tersebut penting untuk:
-
Mengurangi kesalahan dan bias dalam output AI.
-
Memperjelas cara AI membuat keputusan sehingga lebih transparan dan dapat dipercaya.
-
Memaksimalkan potensi AI dalam menyelesaikan berbagai tugas mulai dari penulisan, analisis data, hingga pemecahan masalah kompleks.
-
Mendukung pengembangan AI yang lebih adaptif dan responsif terhadap kebutuhan pengguna.
Kesimpulan
Prompt engineering bukan sekadar memberi perintah pada AI, tetapi seni dalam berkomunikasi dengan Generative AI.
Dengan teknik-teknik ini, kita bisa memaksimalkan kemampuan generative AI mulai dari menulis, menganalisis data, hingga membantu pengambilan keputusan.
🚀Upgrade Skill Anda terkait Teknologi AI
Jika Anda berminat untuk mempelajari teknologi AI lebih mendalam, silakan mengikuti pelatihan terkait AI bersama SUHU disini :
Silakan konsultasikan kebutuhan Anda bersama kami dengan klik link berikut: https://bit.ly/kontaksuhu
