Bing Search Update: Pencarian Lebih Cepat dan Akurat dengan Teknologi LLM & SLM

Microsoft menyempurnakan pencarian Bing dengan model bahasa baru, yang diklaim dapat mengurangi biaya sekaligus memberikan hasil yang lebih cepat dan akurat.

Bing Search Update: Pencarian Lebih Cepat dan Akurat dengan Teknologi LLM & SLM

Microsoft baru saja mengumumkan pembaruan besar pada infrastruktur pencarian Bing, yang kini mengintegrasikan teknologi Large Language Models (LLMs), Small Language Models (SLMs), dan teknik optimasi terbaru. Langkah ini bertujuan meningkatkan performa dan mengurangi biaya penyampaian hasil pencarian.

Dalam pernyataannya, Microsoft menyebutkan:

“Di Bing, kami selalu mendorong batas teknologi pencarian. Penggunaan Large Language Models (LLMs) dan Small Language Models (SLMs) adalah tonggak penting dalam meningkatkan kapabilitas pencarian kami. Sementara model transformer telah melayani kami dengan baik, kompleksitas pencarian yang terus meningkat membutuhkan model yang lebih canggih.”

Keunggulan Performa

Meskipun LLMs menawarkan pemahaman mendalam, mereka kerap menjadi tantangan dalam hal kecepatan dan biaya. Untuk mengatasi hal ini, Microsoft melatih SLMs, yang diklaim 100 kali lebih cepat dibandingkan LLMs.

Menurut Microsoft:

“LLMs bisa mahal dan lambat. Untuk efisiensi, kami melatih model SLM (~100x throughput improvement over LLM), yang memproses dan memahami kueri pencarian dengan lebih presisi.”

Selain itu, Bing mengadopsi NVIDIA TensorRT-LLM, alat optimasi yang mengurangi waktu dan biaya penggunaan model besar pada GPU NVIDIA.

Dampak pada “Deep Search”

Pembaruan ini juga meningkatkan fitur Deep Search Bing, yang mengandalkan SLM untuk memberikan hasil pencarian relevan secara real-time.

Laporan teknis Microsoft menunjukkan bahwa sebelum optimasi, model asli transformer Bing memiliki:

  • Latency rata-rata 4,76 detik per batch (20 kueri)
  • Throughput 4,2 kueri per detik per instance

Dengan TensorRT-LLM, angka tersebut meningkat signifikan:

  • Latency berkurang menjadi 3,03 detik per batch
  • Throughput naik menjadi 6,6 kueri per detik per instance

Ini mencerminkan penurunan latency sebesar 36% dan pengurangan biaya operasional hingga 57%.

Microsoft menegaskan:

“… produk kami dibangun untuk memberikan hasil terbaik tanpa mengorbankan kualitas. TensorRT-LLM memainkan peran penting dalam mengurangi waktu inferensi model, sehingga meningkatkan kecepatan pengalaman tanpa menurunkan kualitas hasil.”

Manfaat untuk Pengguna Bing

Bagi pengguna Bing, pembaruan ini membawa beberapa keuntungan utama:

  1. Hasil pencarian lebih cepat dengan waktu respons yang dioptimalkan.
  2. Akurasi meningkat melalui pemahaman kontekstual dari model SLM.
  3. Efisiensi biaya yang memungkinkan investasi lebih lanjut pada inovasi.

Apa Artinya Langkah Bing Ini?

Peralihan Bing ke model LLM/SLM serta optimasi TensorRT menandai perubahan besar dalam dunia pencarian.

Seiring meningkatnya kompleksitas pertanyaan pengguna, search engine harus dapat memahami dan memberikan hasil relevan dengan lebih cepat.

Dengan pendekatan baru ini, Bing tidak hanya mengejar efisiensi, tetapi juga mempersiapkan masa depan pencarian yang lebih canggih.

Meski dampak sepenuhnya belum terlihat, langkah ini menjadi pijakan penting bagi inovasi berikutnya dalam teknologi pencarian.

#Improve Bisnis Dengan SEO & Digital Marketing!

Ingin tahu cara boost peringkat website kamu di mesin pencari? Atau bagaimana strategi digital marketing bisa mendatangkan lebih banyak pelanggan?

Berlangganan newsletter Zenian Army sekarang, dan dapatkan tips serta strategi SEO dan Digital Marketing terbaru langsung ke inbox kamu.

Digital Marketing News

Aku akan membagikan taktik praktis untuk meningkatkan visibilitas online, menarik audiens yang tepat, dan mengoptimalkan performa bisnis kamu di dunia digital yang kompetitif.

Referensi:

Bing Search Updates: Faster, More Precise Results, Search Engine Journal.