Tips Memakai LLM

Ketika saya masuk kuliah, Google belum ada (saya masuk kuliah Agustus 1998, Google baru didirikan September 1998), dan baru beberapa bulan kemudian memakai Google. Karena saya mengikuti perkembangan Google dari awal, saya jadi tahu Google-Fu (skill untuk mencari di search engine). Tapi sampai sekarang, masih banyak yang tidak tahu cara mencari di search engine dengan baik.

Era search engine akan segera beralih ke Large Language Model (dan juga generative AI lainnya). Sudah lebih dari 2 tahun ChatGPT dirilis, dan masih banyak juga yang belum memakai AI dengan optimal, padahal bisa memudahkan hidup.

Isi artikel ini tujuannya untuk user biasa, tidak menjelaskan internal sebuah LLM, sekedar berbagai fitur yang mungkin tidak diketahui user. Artikel ini juga tidak akan menjanjikan segala macam janji bombastis seperti “ini 5 prompt yang akan mengubah hidup Anda”.

Ini dihasilkan dengan ideogram

Ada banyak LLM

Setelah ChatGPT dari OpenAI, mulai bermunculan banyak model LLM lain. Sebagian besar app dan website yang ditemui hanyalah wrapper/pembungkus OpenAI atau model yang sudah ada, tapi sebagian lagi memiliki model sendiri (misalnya Claude, Gemini, DeepSeek, Qwen).

Jika kita menggunakan LLM untuk pekerjaan yang sifatnya rahasia, harap dibaca dengan teliti apakah datanya akan dipakai untuk training. Kadang ada opsi yang harus dicentang supaya data kita tidak diproses. Di tulisan ini saya hanya berfokus pada pengguna, bukan pada hosting LLM sendiri (ini mungkin akan saya bahas kali lain)

Kemampuan tiap model berbeda, tergantung banyak faktor dari mulai ukuran modelnya, data trainingnya, arsitekturnya, teknik trainingnya, dsb. Setiap provider menyediakan banyak pilihan model, misalnya ChatGPT memiliki pilihan: ChatGPT-4o, ChatGPT-o1, ChatGPT-4o-mini, Gemini punya pilihan Gemini Advance, Gemini Flash, dsb.

Banyaknya model ini membuat orang jadi bingung, dan akhirnya selalu memakai model default. Akan saya coba jelaskan secara sederhana beberapa hal tentang LLM lalu dari pengetahuan ini tips praktisnya supaya optimal memakai LLM.

Pertanyaan dan fakta Umum

Sebuah model hanya terdiri dari sejumlah angka-angka, di situ tersimpan segala macam fakta. Model yang ukurannya besar akan butuh banyak memori dan juga CPU (karena perlu mengoperasikan banyak angka) tapi tahu banyak fakta. Sedangkan model yang kecil kurang tahu banyak fakta, tapi kelebihan model kecil adalah: sangat cepat.

Defaultnya saat ini semua menggunakan model standard yang tahu banyak fakta. Tapi perlu diperhatikan: Tanyakan fakta yang umum, bukan sangat spesifik seperti album yang dikeluarkan artis X tahun 1980 apa? (kecuali ini sangat terkenal, ada kemungkinan jawaban salah), nanti akan saya bahas bahwa model terbaru bisa melakukan pencarian untuk mendapatkan data terbaru, atau fakta yang jarang diketahui orang.

Memakai model besar atau kecil ini ibaratnya seperti bertanya pada dua jenis orang:

  • Orang yang pintar, paham banyak bahasa, diajari segala macam ilmu pengetahuan, bisa menjawab atau melakukan hal apapun
  • Orang pintar yang tinggal di kampung, tidak tahu banyak tentang dunia ini, tapi jika diberi instruksi, bisa melakukannya dengan baik. Jika diberi teks, bisa memahami teks tersebut dan mengekstrak faktanya.
Ada banyak pilihan model

Model kecil untuk Tugas sederhana

Biasanya model kecil dinamai dengan kata-kata seperti “mini” (Contoh: GPT-4o mini), “flash” (Gemini Flash), “small” (Mistral Small), “turbo” (Qwen-2.5 Turbo), atau kadang agak teknis dengan akhiran “7B” (artinya 7 milyar parameter), “1B” (1 milyar parameter).

Model kecil di Gemini diberi nama “flash”

Gunanya model kecil seperti ini adalah untuk melakukan task-task sederhana. Contoh: kita perlu mengupdate banyak dokumen, karena struktur organisasi berubah (nama di tiap-tiap jabatan berubah). Ini pekerjaan sederhana:

  • Tidak perlu tahu fakta umum
  • Tidak perlu berpikir
  • Sekedar memproses teks

Bisa saja ini dkerjakan manual, tapi andaikan tidak paham otomasi, yang dilakukan adalah: membuka satu dokumen, lakukan search replace tiap nama, bukan dokumen lain, search replace tiap nama (satu per satu). Dengan LLM yang ukurannya mini, kita bisa membuat instruksi di awal:

Saya ingin mengupdate dokumen sesuai struktur organisasi terbaru. Saya akan memberikan paragraf yang perlu diupdate, jika ditemui nama “XX” (laki-laki) ganti dengan “YY” (perempuan), “ZZ” dengan “AA” (dst). Jika teks mengandung nama diawali gelar, misalnya bapak XX, gantikan sesuai gender penggantinya.

Sekarang jika kita paste paragraf yang ingin diganti, hasil outputnya adalah paragraf yang sudah diupdate yang siap dicopy paste. Karena model kecil, maka ini bisa dilakukan dengan cepat dibandingkan model yang penuh. Tentunya instruksinya bisa lebih kompleks lagi.

Untuk instruksi sederhana, model-model terbaru sudah sangat bagus, tapi semakin kompleks instruksinya, semakin sering ada kesalahan. Kemampuan mengikuti instruksi ini biasanya dinilai melalui benchmark IFEval. Semakin tinggi nilainya, berarti LLM-nya lebih patuh instruksi.

Multimodal

Tidak semua LLM sama, ada yang input dan output teks, ada input gambar, output teks, ada input suara dan output suara, dan berbagai kombinasi itu. LLM yang bisa memahami langsung gambar atau suara (selain teks) disebut LLM yang multimodal

Dulu banyak LLM tidak multimodal, jadi semua input harus diubah jadi teks dengan OCR atau dengan speech to text. Dalam kasus OCR, informasi tentang: ukuran teks, warna teks, posisi teks akan hilang. Ibaratnya seperti seseorang yang buta yang diminta menjawab dengan diberi teks saja, tanpa konteks yang jelas. Semua informasi illustrasi juga hilang. Jadi kalau model seperti ini diminta menjawab screenshot soal matematika dengan gambar, modelnya tidak bisa menjawab dengan benar.

Contoh model saat ini (Januari 2025) yang belum multimodal adalah DeepSeek, hanya bisa melakukan text extraction dari gambar.

Hati-hati memakai LLM yang tidak multimodal

Perhatikan bahwa fitur multimodal ini bisa berhalusinasi. Belum lama ini saya alami, saya memiliki teks asli seperti ini:

Ketika saya minta melalukan transkripsi pada model Llama-90B-Vision, hanya kalimat pertama benar, sisanya sekilas seperti ok, tapi jika dibaca seksama, kalimatnya sangat berbeda. Ini tidak selalu di bagian awal, dan kadang hanya satu-dua kata yang berubah.

Fitur ngobrol dengan ChatGPT awalnya diimplementasikan sebagai bagian terpisah: speech to text, lalu diproses teksnya, lalu text to speech. Tapi sekarang ChatGPT sudah multimodal, bisa langsung memproses input suara dan mengeluarkan suara. Beberapa LLM sudah punya fitur serupa (misalnya Gemini), tapi LLM lain masih ada yang memakai pendekatan lama (suara dijadikan teks dulu).

Image generation

Walau sudah ada sistem multimodal supaya LLM bisa langsung menghasilkan gambar, saat ini sistem yang ada di pasaran masih memakai pendekatan sederhana: ketika diminta membuat gambar, maka LLM akan menghasilkan teks yang lebih detail untuk diberikan ke sistem penghasil gambar (misalnya Stable Diffusion) yang akan membuatkan gambarnya.

Keterbatasan dari sistem saat ini adalah: tidak bisa membuat illustrasi yang akurat dengan teks (beberapa sistem seperti Flux bisa, tapi biasanya untuk teks-teks yang besar, itupun tidak selalu akurat 100%).

Untuk membuat diagram, kita bisa meminta LLM membuat format teks dengan syntax Mermaid, lalu kita ubah teks tersebut menjadi gambar.

Ukuran Konteks dan Retrieval Augmented Generation

Misalnya kita ingin agar seseorang bisa menjawab pertanyaan-pertanyaan dari berberapa dokumen, ada dua pendekatan:

  • Minta orang itu menghapalkan semua isinya, nanti bisa kita tanya, mungkin ada yang akan terlupa kalau dokumennya terlalu banyak, tapi karena sudah membaca semua dokumen, ada kemungkinan dia bisa memberi tahu kalau ada hubungan fakta di dokumen 1 dengan dokumen 10.
  • Beri orang itu dokumen-dokumen yang ada dan meminta orang itu jangan menghapalkan isinya. Jika kita bertanya sesuatu, dia bisa membaca dokumen-dokumennya untuk mencari fakta. Tentunya kalau dibaca satu per satu, akan sangat lama. Jadi orang ini bisa memakai search untuk mencari kata kunci dan membaca bagian tertentu saja. Tentunya ada jawaban yang bisa tidak ketemu (misalnya kata kuncinya tidak tepat karena di dokumen memakai istilah lain). Teknik ini namanya RAG (retrieval augmented generation), saya bahas teknisnya ini di blog Cinta Programming.

Jika kita meminta dengan cara pertama, kita masukkan informasi langsung di teks chatnya. Misalnya “ini adalah aturan perusahaan terbaru <copy paste peraturan perusahaan>, pertanyaan saya: apakah boleh melakukan …”. Tapi ada batasan sesuatu yang bisa kita copy paste ke sini, dan biasanya itu adalah ukuran konteksnya. Model-model terbaru sudah punya konteks yang cukup panjang (ratusan ribu hingga jutaan token), jadi kadang satu buku bisa jadi konteksnya

Jika kita meminta dengan cara kedua, biasanya ini kita masukkan dengan cara meng-attach beberapa dokumen sebelum bertanya. Setelah itu LLM akan menggunakan teknik RAG untuk mengekstrak informasi seperlunya.

Sebagai catatan: aplikasi kadang cukup pintar untuk tahu apakah attachment dijadikan input (bagian dari konteks) atau jadi sumber dokumen untuk RAG.

Fitur Search

Jika kita ingin agar jawaban kita asalnya dari web, kita perlu meminta dengan mengaktifkan fitur search. Ini sangat berguna untuk mencari fakta-fakta terbaru. Jika ingin meminta fakta apapun yang cepat berubah (misalnya daftar restoran di sebuah kota), selalu gunakan fitur search.

Sama seperti manusia yang sering terkecoh dengan berita hoax, jika hasil pencarian kebanyakan memberikan berita palsu, ya hasilnya juga akan salah.

Fitur Search di deepseek

Jika yang dicari adalah hal penting (misalnya untuk dimasukkan ke paper ilmiah), jangan lupa cek manual hasil pencarian dan referensi yang diberikan.

Fitur search di ChatGPT

Reasoning

Beberapa pertanyaan bisa dijawab “tanpa mikir”, misalnya sebagai seseorang di Indonesia jika ditanya: “kapan tahun kemerdekaan Indonesia”, langsung bisa menjawab 1945 (sekedar fakta tertanam di ingatan). Semua LLM memiliki fitur ini.

Ketika jika ditanya: “jadi sekarang sudah berapa tahun Indonesia merdeka”, maka perlu melakukan kalkukasi. LLM tidak bisa mengkalkukasi angka besar dengan mudah. Untuk angka ratusan atau ribuan, biasanya hasilnya benar, tapi angka besar akan ngawur. LLM yang punya fitur bisa memanggil program akan menggunakan “kalkulator” eksternal (bisa berupa kode progam). Tidak semua LLM punya fitur ini.

Berikutnya jika kita diminta mengurutkan beberapa peristiwa bersejarah sekitar kemerdekaan, kita akan mulai menggabungkan ingatan dan juga membandingkan mana peristiwa yang terjadi lebih dulu LLM terbaru memiliki fitur untuk berpikir seperti ini. Fitur ini perlu diaktifkan atau dipilih. Misalnya di DeepSeek, kita menekan “Deep Think (R1)”, sedangkan di ChatGPT kita perlu memilih model o1 atau o1-mini.

Seperti apa sih “berpikir”-nya, bisa dilihat dicontoh berikut ini. Jadi Intinya LLM akan “thinking” dan bahkan kadang “overthinking” untuk pertanyaan apapun. Ini butuh waktu lama, dan seperti manusia, kalau overthinking jawaban akhirnya kadang malah salah

Selamat pagi
Okay, the user greeted me with “Selamat pagi,” which is Indonesian for “Good morning.” I should respond politely in the same language to keep the conversation natural.

First, I’ll acknowledge their greeting. The appropriate response would be “Selamat pagi juga!” which means “Good morning to you too!” in Indonesian. That’s friendly and matches their language.

I should check if there’s anything else they need help with. Maybe add a sentence asking how I can assist them today. In Indonesian, that would be “Ada yang bisa saya bantu hari ini?” to offer further help.

Putting it all together: “Selamat pagi juga! Ada yang bisa saya bantu hari ini?” That covers the greeting and offers assistance, which is standard for a helpful response.

Make sure there are no typos or grammar mistakes. The phrases seem correct. No need for any additional information unless the user asks something else. Keep it concise and welcoming.

Selamat pagi juga! Ada yang bisa saya bantu hari ini?

Seperti di dunia nyata: kita tidak akan memanggil seorang professor untuk pertanyaan atau tugas sangat sederhana, biayanya mahal dan proses berpikirnya terlalu lama. Jadi kita perlu paham jenis pertanyaan yang ingin kita tanyakan, jika memang butuh logika dan langkah yang jelas(seperti menjawab soal pelajaran), maka kita perlu mengaktifkan ini.

overthinking

Artifact dan Project

Artifact dan Project ini sebenarnya bukan fitur model LLM-nya, tapi fitur aplikasi/user interface. Dengan fitur artifact (misalnya pada Claude dan Qwen), kita bisa meminta LLM membuat aplikasi sederhana yang langsung bisa dijalankan.

Dengan Claude kita bisa minta aplikasi sederhana dengan prompt: Make an app to compute tips. Input is amount and a slider for tips. Hasilnya adalah aplikasi web siap pakai.

Ini dibuat dengan claude

Fitur project dipakai jika kita ingin bekerja dengan banyak file yang berhugungan. Saya sendiri tidak memakai fitur ini karena lebih suka memprogram dengan IDE yang menggunakan AI.

Bertanya pada LLM

Ada ilmu “prompt engineering” untuk membuat instruksi atau pertanyaan yang bagus untuk LLM. Menurut saya dasar Prompt Engineering ini sebenarnya sederhana, jika kita paham bagaimana LLM bekerja dan paham apa yang ingin kita tanyakan, kita bisa membuat instruksi atau pertanyaan yang jelas.

Konteks

Di dunia nyata, dan juga di chat whatsapp/telegram atau di forum, sering sekali saya menemukan orang yang bertanya nggak jelas: “ini kenapa ya error not found?”, tanpa menjelaskan: ini error ketika ngapain? sistem operasinya apa? dsb. Pertanyaan tidak jelas sejenis ini juga tidak akan bisa dijawab AI. Bedanya AI lebih sabar dan menawarkan segala macam kemungkinan, yang kadang sangat panjang.

Jika kita tidak paham yang kita tanyakan, AI bisa menggiring kita jauh dari yang kita inginkan. Jadi ketika bertanya: berikan konteks yang sejelas mungkin. Jika berhubungan dengan software, jelaskan OS, versi, dsb.

Instruksi

Jika kita bertanya Jika ingin jawaban sederhana untuk anak-anak, jelaskan bahwa kita ingin jawabannya sederhana untuk anak-anak. Jika kita tahu pasti langkah yang harus dilakukan untuk menyelesaikan masalah, maka langkah itu bisa diberikan.

Kadang bahkan kita bisa menemukan jawaban dari yang kita tanya ketika menulis pertanyaannya jika kita memikirkan pertanyaannya dengan jelas.

Restart chat

Jika jawaban sudah tidak nyambung, maka buat chat baru. Jika chat berisi terlalu banyak hal yang tidak berhubungan, LLM akan memproses hal-hal yang tidak berhubungan tersebut.

Bayangkan seperti manusia yang sedang ngobrol, lalu tiba-tiba ganti topik, kadang-kadang pihak satu lagi bingung dan bilang: eh kita udah ganti topik ya, ini gak ada hubungannya dengan yang tadi?

Bahasa Inggris

Meskipun LLM sekarang sudah ditraining bahasa indonesia, saat ini input dan output dengan bahasa inggris masih terbaik. Bahkan semua reasoning model saat ini menggunakan bahasa inggris ketika ditanya dalam bahasa Indonesia. Khusus untuk model dari China, jika ditanya dalam mandarin, jawabannya juga akan lebih bagus.

Output berupa program

Seorang rekan di group chat alumni informatika ITB memperhatikan bahwa ketika diminta menjawab ini, semua LLM tidak bisa konsisten benar (kadang benar, kadang salah):

Give an example of two linear equations with two variables where coefficients are integers and solutions are integers

Padahal niatnya adalah membuat aneka contoh soal untuk anaknya. Jika Anda adalah guru yang berusaha membuat soal, tentunya mengesalkan jika harus memeriksa apakah contoh soal yang dihasilkan LLM benar atau tidak.

Solusi untuk masalah ini adalah: meminta LLM membuat program untuk menghasilkan dua persamaan. Dengan cara ini kita bisa membuat banyak contol soal dengan mudah dan akurat, karena algoritmanya jelas.

Contoh generator soal dengan Claude

Belajar berbagai format teks

LLM saat ini masih lebih optimal jika input dan outputnya adalah teks, jadi kalau kita paham berbagai format berbasis teks, ini akan memudahkan, contoh:

  • Berbagai diagram bisa dihasilkan dari format teks Mermaid
  • Kita bisa minta output berupa teks program yang bisa dijalankan (jika tidak tahu bagaimana menjalankan sebuah program, tinggal bertanya ke LLM)
  • Kita bisa minta LLM membuat presentasi dalam format Marp yang bisa dkonversi jadi HTML/PDF atau bahkan Powerpoint (kita tinggal mengganti Theme jika kurang suka)

Saat ini Google Docks bahkan mendukung download dokumen dalam format markdown (ini format teks sederhana).

Google Docs mendukung Markdown

Custom Instruction/Custom GPT/Agents

Jika kita sering menggunakan sebuah LLM untuk melakukan sesuatu, maka coba gunakan fitur “Custom Instruction”, “Custom GPT”, “Agents”, “Gems” atau sejenisnya.

Intinya adalah: sering kali kita memakai instruksi yang sama, atau mengupload file yang sama, dan fitur sejenis ini bisa jadi shortcut. Misalnya begini: saya sering minta terjemahan teks Thai ke Inggris Karena nama orang Thai banyak yang unik, kadang Google Translate bingung. Dengan ChatGPT/Gemini saya bisa memberi instruksi kira-kira begini: untuk semua kalimat Thai yang saya tuliskan, langsung terjemahkan jadi bahasa inggris. Mohon diperhatikan bahwa nama-nama berikut jangan diterjemahkan: <daftar nama teman kantor>.

Jadi sekarang jika saya perlu menerjemahkan teks, cukup buka CustomGPT (atau Gems kalau di Gemini), dan copy paste teks thai tanpa instruksi apapun (karena instruksinya sudah diset untuk langung menerjemahkan).

CustomGPT di ChatGPT

Selain instruksi khusus, kita juga bisa menambahkan Knowledge (berupa file) yang akan dibaca LLM, atau URL API untuk ditanya. Contohnya kita bisa membuat Custom GPT dengan dokumen aturan board game untuk bisa ditanya pengetahuan tentang board game itu.

Di ChatGPT selain Custom GPT ada juga fitur “Custom instruction” yang sifatnya lebih global dan umum. Misalnya kita ingin ChatGPT selalu menjawab dengan bahasa Inggris, atau bahwa timezone saya adalah Thailand, jadi semua waktu harap dikonversi jadi waktu Thailand.

Di Gemini istilahnya Gems

Perhatikan nama fitur ini berbeda-beda di tiap LLM, di Mistral namanya adalah Agent. Perlu dicatat juga istilah agent ini saat ini belum disepakati banyak orang.

Beberapa LLM Gratis untuk dicoba

Berikut ini daftar LLM yang menurut saya layak dicoba. Banyak aplikasi (Perplexity, Copilot, dsb) sebenarnya sekedar user interface yang memanggil berbagai LLM yang ada.

ChatGPT

Ini yang memulai segalanya: https://chatgpt.com/

DeepSeek

Ini yang sempat membuat orang-orang panik. Saat tulisan ini dibuat, registrasi kadang error, dan harus memakai Google Account dengan domain gmail. https://chat.deepseek.com/

Claude

Saat ini masih dianggap terbaik dalam hal programming. Fitur artifactnya sangat menarik.

https://claude.ai/

Mistral

Ini asalnya dari Eropa, awalnya sangat dikagumi karena mereka merilis banyak model kecil berkemampuan tinggi. Namun mereka agak melambat akhir-akhir ini (update: mereka baru merilis model baru)

https://chat.mistral.ai

Qwen

Qwen merupakan model dari China dan sudah merilis banyak model open source. Mereka dikenal karena model opensourcenya memiliki kemampuan yang luar biasa.

Versi webnya memiliki kemampuan artifact, image generation, dan bahkan video generation.

https://chat.qwenlm.ai

Kimi

Produk lain dari China, dengan deep thinking/reasoning

https://kimi.ai

Meta AI

Meta (dulu namanya Facebook) saat ini dikenal sangat murah hati merilis berbagai model open source. Ini bisa langsung dicoba di WhatsApp atau Facebook Messenger.

Gemini dan NotebookLM

Google punya Gemini yang layak dicoba dan punya fitur Deep Research, tapi yang lebih menarik adalah NotebookLM. Dengan NotebookLM, kita bisa memasukkan aneka dokumen, lalu chat untuk bertanya mengenai dokumen yang kita upload. Fitur yang sangat menarik adalah: bisa menghasilklan podcast menarik dari file-file yang kita upload. Dialog podcastnya sangat natural dan banyak saya pakai.

Perlu dicatat juga kelemahan NotebookLM. Saya sudah mencoba-coba notebooklm, dan karena memakai sitem RAG, kadang tidak menemukan jawaban untuk pertanyaan yang saya cari (atau kadang jawabannya salah karena hanya menemukan parsial).

Grok

Ini AI dari x.ai, kelebihannya adalah: bisa mengakses X (yang dulu namanya Twitter). Sebenarnya kemampuan mengakses X ini memiliki potensi besar (bisa memberikan jawaban realtime), tapi sayangnya untuk saat ini implementasinya masih kurang bagus. Dugaan saya adalah karena fitur pencarian di X sendiri masih kurang bagus. Kadang saya bertanya hal terbaru, tapi dijawab dengan berita beberapa tahun lalu.

Hal-hal yang masih mahal

Saat ini ada banyak hal-hal menarik lain, tapi masih mahal. Mungkin dalam hitungan bulan akan bertambah murah.

Video Generation

Membuat video butuh waktu lama dan butuh penyimpanan besar di server. Saat ini iterasi membuat video tidak bisa dilakukan dengan cepat. Dulu ketika diminta menghasilkan gambar, AI sering membuat tangan yang aneh dan sekarang semakin bagus, tapi pada video generation, berbagai keanehan ini masih sering muncul.

Browser Use/Computer Use

Saat ini ada beberapa model yang memungkinkan kita meminta LLM melakukan sesuatu dengan browser atau komputer kita. Jadi misalnya kita minta “pesankan pizza dari XXX, ini login dan password saya”, maka LLM bisa membuka website penjual pizza XXX, mengisi form, memilih pizza, sampai selesai. Contoh lainnya Computer Use: hapus semua file *.tmp dari desktop saya, maka LLM bisa menjalankan perintah yang sesuai.

Saat ini model sejenis ini masih relatif mahal dan lambat, padahal bisa dipakai untuk mengotomasi apa saja.

Pemakaian sehari-hari

Mungkin masih ada yang bertanya-tanya: jadi AI-nya dipakai untuk apa aja sehari-hari? Berikut ini contoh yang saya lakukan:

  • Mencari jawaban pertanyaan umum (kadang menggantikan Google, karena kita bisa mencari yang namanya lupa tapi ingat deskripsinya, misalnya “Apa nama makanan khas utara thailand yang supnya warna hijau?”)
  • Menjawab pertanyaan anak (kadang sambil jalan pagi saya memakai voice chatnya supaya anak-anak langsung mendengar jawabannya)
  • Menerjemahkan teks
  • Memeriksa ejaan dan grammar, dan kadang menuliskan ulang teksnya
  • Konversi skrip (misalnya dari Bash ke Powershell)
  • Transkripsi tulisan dalam gambar jadi teks, terutama jika teks terlalu kecil (sedangkan kalau dizoom imagenya, harus scroll ke kiri dan kanan untuk membacanya). Saat ini di media sosial banyak orang menshare berbagai informasi dalam bentuk gambar, walau iOS dan Android bisa mengcopy teks dari gambar, tapi LLM lebih akurat .
  • minta penjelasan meme yang sulit dimengerti
  • menghasilkan perintah command line dari deskripsi, misalnya saya selalu lupa syntax kompleks ffmpeg (software untuk konversi format video/suara), saya tinggal deskripsikan apa yang saya inginkan, dan tinggal copy paste commandnya
  • Menjawab penasaran, misalnya: ini bunga apa sih? tinggal foto dan minta ChatGPT atau LLM lain untuk memberi tahu itu bunga apa
  • Merangkum artikel panjang supaya tahu layak dibaca dengan detail atau nggak
  • Merangkum video panjang dari subtitlenya. Jika tidak ada subtitle, saya memakai whisper untuk membuat subtitlenya
  • Brainstorming ide yang saya miliki
  • Membantu debugging, karena bisa memberikan daftar kemungkinan kesalahan program, tinggal dicek apakah benar seperti dugaan
  • Membantu menghasilkan atau memperbaiki sintaks di bahasa atau teknologi yang jarang saya pakai (misalnya HTML/CSS)
  • Membuat kalendar dari PDF atau image (tinggal upload image tau PDF jadwal, lalu minta file .ics yang bisa diimport di Google Calendar atau calendar manapun)
  • Coding secara umum (detailnya di tulisan saya yang ini)
  • Membuat ilustrasi blog dan presentasi
  • Membantu menulis presentasi dengan format Marp
  • Membantu memahami paper yang sulit (saya convert jadi podcast dengan NotebookLM, dan saya chat dengan ChatGPT untuk penjelasannya)
  • Memeriksa PR anak-anak, cukup foto dan ChatGPT bisa memeriksa apakah benar atau tidak. Perlu diperhatikan bahwa ini tidak 100% akurat, terutama jika terlalu banyak soal di satu foto.

Penutup

Saya berusaha memasukkan sebanyak mungkin informasi dan tips yang saya ingat, tapi pasti masih banyak tips yang terlewat (jika ingin penjelasan yang lebih low level, pernah saya tulis juga). Kadang ada bagian yang menurut saya sangat jelas (misalnya di DeepSeek ada tombol “Search”), ternyata beberapa orang tidak melihat tombol itu, dan mungkin sebaliknya ada hal-hal yang saya anggap sulit ternyata mudah.

Kalau kita rajin memakai LLM untuk menulis akan mudah mendeteksi hal-hal yang dihasilkan LLM. Jadi selain membantu mengerjakan berbagai pekerjaan, memakai LLM juga melatih kita supaya tidak mudah dibohongi dengan hasil LLM.

Segala yang saya tulis di sini hanya tips dasar untuk user. Kali lain akan saya tuliskan pengalaman saya mengoprek LLM lokal.

Tinggalkan Balasan

This site uses Akismet to reduce spam. Learn how your comment data is processed.