Lewati ke konten
penelitian AI safety. Teknik seperti RLHF (Reinforcement Learning from Human Feedback) digunakan untuk mengurangi bias dan toxic output pada model bahasa. DeepMind juga aktif mengembangkan Gemma, model open-source dengan mekanisme keamanan bawaan. Bidang medis pun tak ketinggalan. Model seperti ... hukum fisika baru. Buat yang pengin ikut riset, sekarang banyak banget model open-source (LLaMA 3, Mistral) atau platform kayak Kaggle buat eksperimen tanpa modal gede. Tapi inget: riset AI sekarang lebih dari sekadar coding—perlu pemahaman etika, hardware, bahkan kebijakan publik. Baca