API Carian Web Ollama Mencetuskan Kebimbangan Privasi dan Persoalan Mengenai Falsafah Mengutamakan Tempatan

Pasukan Komuniti BigGo
API Carian Web Ollama Mencetuskan Kebimbangan Privasi dan Persoalan Mengenai Falsafah Mengutamakan Tempatan

Ollama telah melancarkan API carian web baharu yang membolehkan model AI mengakses maklumat masa nyata dari internet. Walaupun ciri ini berjanji untuk mengurangkan halusinasi dan meningkatkan ketepatan untuk model AI tempatan, ia telah mencetuskan perdebatan yang ketara dalam komuniti pembangun mengenai privasi, pengekalan data, dan hala tuju syarikat yang berkembang.

Llama-llama yang unik meneroka tema penyiasatan, mencerminkan API baharu Ollama untuk carian web dan akses maklumat masa nyata
Llama-llama yang unik meneroka tema penyiasatan, mencerminkan API baharu Ollama untuk carian web dan akses maklumat masa nyata

Jurang Dasar Privasi Menimbulkan Kebimbangan

Pelancaran ini telah mendapat kritikan kerana kekurangan dokumentasi privasi yang penting. Ahli komuniti telah menunjukkan bahawa Ollama , yang beribu pejabat di California , mungkin tertakluk kepada Akta Privasi Pengguna California ( CCPA ) jika mereka memproses data untuk 50,000 atau lebih penduduk California . CCPA terpakai tanpa mengira hasil, menjadikan pematuhan penting untuk mana-mana syarikat yang mengendalikan data peribadi secara besar-besaran.

Ketiadaan dasar privasi yang jelas telah membawa kepada spekulasi mengenai penyedia carian mana yang digunakan oleh Ollama di sebalik tabir. Penyedia carian yang berbeza mempunyai peraturan yang berbeza-beza mengenai penyimpanan data, hak penerbitan semula, dan sekatan penggunaan. Tanpa ketelusan mengenai perkongsian ini, pembangun kekal tidak pasti tentang kewajipan undang-undang mereka apabila menggunakan perkhidmatan tersebut.

Peralihan Awan Mempersoalkan Misi Mengutamakan Tempatan

Ciri carian web memerlukan akaun Ollama dan kunci API , menandakan pemergian dari pendekatan asal platform yang mengutamakan tempatan. Peralihan ini telah mengecewakan pengguna yang pada mulanya memilih Ollama khusus untuk keupayaan luar talian dan kebebasan dari perkhidmatan awan.

Saya tidak tahu mereka mempunyai penawaran awan sendiri, saya fikir keseluruhan tujuan Ollama adalah model tempatan? Mengapa saya perlu membayar 20 dolar Amerika sebulan untuk menggunakan model kecil yang lebih rendah daripada menggunakan salah satu syarikat AI biasa seperti OpenAI atau bahkan Mistral ?

Syarikat mempertahankan pendekatan ini dengan menyatakan bahawa beberapa model yang disokong terlalu besar untuk kebanyakan peranti tempatan. Mereka berhujah bahawa pengehosan awan menyediakan akses kepada model perintis yang tidak akan tersedia kepada pembangun individu. Walau bagaimanapun, pengkritik mempersoalkan mengapa pengguna akan memilih awan Ollama berbanding penyedia yang mantap seperti Google atau Anthropic untuk akses model komersial.

Harga dan Had API

  • Peringkat percuma: Tersedia dengan had yang murah hati untuk individu
  • Peringkat berbayar: $20 USD/bulan untuk had kadar yang lebih tinggi melalui awan Ollama
  • Butiran had kadar: Tidak didedahkan secara terbuka

Pelaksanaan Teknikal dan Alternatif

API carian web berintegrasi dengan perpustakaan Python dan JavaScript Ollama , menyokong kedua-dua panggilan REST API dan pelaksanaan berasaskan alat. Pembangun boleh membina ejen carian menggunakan model tempatan seperti Qwen 2 dengan 16 bilion parameter, menggabungkan inferens tempatan dengan keupayaan carian berasaskan awan.

Bagi mereka yang lebih suka penyelesaian tempatan sepenuhnya, ahli komuniti telah mencadangkan alternatif seperti SearXNG , yang boleh dihoskan sendiri dan diintegrasikan dengan model AI tanpa memerlukan kunci API luaran. Pendekatan ini mengekalkan falsafah mengutamakan tempatan sambil tetap menyediakan keupayaan carian web.

Penyelesaian Tempatan Alternatif

  • SearXNG : Pengagregat enjin carian yang dihoskan sendiri
  • Brave API : Pilihan integrasi langsung
  • Tavily : 1,000 permintaan percuma setiap bulan
  • AgenticSeek : Pelaksanaan carian web sebelah klien
Antara muka alat Codex menunjukkan bagaimana pembangun boleh berinteraksi dengan API carian web Ollama, mempamerkan kemungkinan integrasi teknikal
Antara muka alat Codex menunjukkan bagaimana pembangun boleh berinteraksi dengan API carian web Ollama, mempamerkan kemungkinan integrasi teknikal

Pengekalan Data dan Tuntutan Pemilikan

Wakil Ollama telah menyatakan mereka mengekalkan dasar pengekalan data sifar dan hasil carian adalah milik pengguna. Mereka mendakwa pengguna bebas menyimpan dan menerbitkan semula hasil, tertakluk hanya kepada bidang kuasa undang-undang tempatan. Walau bagaimanapun, tanpa dokumentasi privasi yang terperinci atau ketelusan mengenai penyedia carian asas, jaminan ini kekal sukar untuk disahkan.

Strategi monetisasi syarikat nampaknya memberi tumpuan kepada menyediakan akses kepada model yang lebih besar dan ciri tambahan melalui perkhidmatan awan, sambil mengekalkan keupayaan inferens tempatan teras. Pendekatan hibrid ini bertujuan untuk melayani kedua-dua pengguna yang mengutamakan tempatan dan mereka yang memerlukan lebih banyak sumber pengiraan daripada yang boleh disediakan oleh perkakasan pengguna.

Sehingga UTC+0 2025-09-26T01:12:57Z, perdebatan berterusan mengenai sama ada Ollama boleh berjaya mengimbangi akar sumber terbukanya dengan daya maju komersial sambil mengekalkan kepercayaan pengguna dan piawaian privasi.

Rujukan: Carian web