{"id":2232,"date":"2026-04-09T12:24:24","date_gmt":"2026-04-09T09:24:24","guid":{"rendered":"https:\/\/shareai.now\/?p=2232"},"modified":"2026-04-14T03:20:16","modified_gmt":"2026-04-14T00:20:16","slug":"mengapa-menggunakan-llm-gateway","status":"publish","type":"post","link":"https:\/\/shareai.now\/id\/blog\/wawasan\/mengapa-menggunakan-llm-gateway\/","title":{"rendered":"Mengapa Anda Harus Menggunakan LLM Gateway?"},"content":{"rendered":"<p>Tim mengirimkan fitur AI melalui beberapa penyedia model. Setiap API membawa SDK, parameter, batasan tingkat, harga, dan keunikan keandalannya sendiri. Kompleksitas tersebut memperlambat Anda dan meningkatkan risiko.<\/p>\n\n\n\n<p>Sebuah <strong>Gerbang LLM<\/strong> memberi Anda satu lapisan akses untuk menghubungkan, mengarahkan, mengamati, dan mengelola permintaan di berbagai model\u2014tanpa pekerjaan reintegrasi yang terus-menerus. Panduan ini menjelaskan apa itu LLM gateway, mengapa itu penting, dan bagaimana <strong>ShareAI<\/strong> menyediakan gateway yang sadar model yang dapat Anda mulai gunakan hari ini.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Apa Itu LLM Gateway?<\/h2>\n\n\n\n<p><strong>Definisi singkat:<\/strong> LLM gateway adalah lapisan middleware antara aplikasi Anda dan banyak penyedia LLM. Alih-alih mengintegrasikan setiap API secara terpisah, aplikasi Anda memanggil satu endpoint. Gateway menangani pengaturan rute, standarisasi, pengamatan, keamanan\/manajemen kunci, dan failover ketika penyedia gagal.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Gerbang LLM vs. Gerbang API vs. Proxy Balik<\/h3>\n\n\n\n<p>API gateway dan reverse proxy berfokus pada masalah transportasi: autentikasi, pembatasan tingkat, pembentukan permintaan, pengulangan, header, dan caching. LLM gateway menambahkan <em>logika<\/em> yang sadar model: penghitungan token, normalisasi prompt\/respons, pemilihan model berbasis kebijakan (termurah\/tercepat\/andal), fallback semantik, kompatibilitas streaming\/pemanggilan alat, dan telemetri per model (latensi p50\/p95, kelas kesalahan, biaya per 1K token).<\/p>\n\n\n\n<p>Anggap saja sebagai reverse proxy yang khusus untuk model AI\u2014sadar akan prompt, token, streaming, dan keunikan penyedia.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Blok Bangunan Inti<\/h3>\n\n\n\n<p><strong>Adaptor penyedia &amp; registri model:<\/strong> satu skema untuk prompt\/respons di seluruh vendor.<\/p>\n\n\n\n<p><strong>Kebijakan routing:<\/strong> pilih model berdasarkan harga, latensi, wilayah, SLO, atau kebutuhan kepatuhan.<\/p>\n\n\n\n<p><strong>Kesehatan &amp; failover:<\/strong> perataan batas laju, backoff, pemutus sirkuit, dan fallback otomatis.<\/p>\n\n\n\n<p><strong>Observabilitas:<\/strong> tag permintaan, latensi p50\/p95, tingkat keberhasilan\/kesalahan, biaya per rute\/penyedia.<\/p>\n\n\n\n<p><strong>Keamanan &amp; manajemen kunci:<\/strong> putar kunci secara terpusat; gunakan scope\/RBAC; jaga kerahasiaan di luar kode aplikasi.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Tantangan Tanpa Gateway LLM<\/h2>\n\n\n\n<p><strong>Beban integrasi:<\/strong> setiap penyedia berarti SDK baru, parameter, dan perubahan yang merusak.<\/p>\n\n\n\n<p><strong>Performa yang tidak konsisten:<\/strong> lonjakan latensi, variasi wilayah, pembatasan, dan gangguan.<\/p>\n\n\n\n<p><strong>Ketidakjelasan biaya:<\/strong> sulit untuk membandingkan harga\/token fitur dan melacak $ per permintaan.<\/p>\n\n\n\n<p><strong>Beban operasional:<\/strong> DIY retries\/backoff, caching, circuit-breaking, idempotensi, dan logging.<\/p>\n\n\n\n<p><strong>Kesenjangan visibilitas:<\/strong> tidak ada tempat tunggal untuk penggunaan, persentil latensi, atau taksonomi kegagalan.<\/p>\n\n\n\n<p><strong>Ketergantungan vendor:<\/strong> penulisan ulang memperlambat eksperimen dan strategi multi-model.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Bagaimana LLM Gateway Memecahkan Masalah Ini<\/h2>\n\n\n\n<p><strong>Lapisan akses terpadu:<\/strong> satu endpoint untuk semua penyedia dan model\u2014tukar atau tambahkan model tanpa penulisan ulang.<\/p>\n\n\n\n<p><strong>Smart routing &amp; fallback otomatis:<\/strong> alihkan ketika sebuah model kelebihan beban atau gagal, sesuai kebijakan Anda.<\/p>\n\n\n\n<p><strong>Optimasi biaya &amp; kinerja:<\/strong> alihkan berdasarkan yang termurah, tercepat, atau yang paling andal\u2014per fitur, pengguna, atau wilayah.<\/p>\n\n\n\n<p><strong>Pemantauan &amp; analitik terpusat:<\/strong> lacak p50\/p95, timeouts, kelas kesalahan, dan biaya per 1K token di satu tempat.<\/p>\n\n\n\n<p><strong>Keamanan &amp; kunci yang disederhanakan:<\/strong> rotasi dan cakupan secara terpusat; hapus rahasia dari repositori aplikasi.<\/p>\n\n\n\n<p><strong>Kepatuhan &amp; lokasi data:<\/strong> rute dalam UE\/AS atau per penyewa; sesuaikan log\/retensi; terapkan kebijakan keamanan secara global.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Contoh Kasus Penggunaan<\/h2>\n\n\n\n<p><strong>Copilot dukungan pelanggan:<\/strong> penuhi target p95 yang ketat dengan perutean regional dan failover instan.<\/p>\n\n\n\n<p><strong>Pembuatan konten dalam skala besar:<\/strong> beban kerja batch ke model harga-kinerja terbaik saat waktu berjalan.<\/p>\n\n\n\n<p><strong>Pencarian &amp; pipeline RAG:<\/strong> campur LLM vendor dengan checkpoint open-source di balik satu skema.<\/p>\n\n\n\n<p><strong>Evaluasi &amp; pembandingan:<\/strong> model A\/B menggunakan prompt yang sama dan pelacakan untuk hasil yang sebanding.<\/p>\n\n\n\n<p><strong>Tim platform perusahaan:<\/strong> pembatasan pusat, kuota, dan analitik terpadu di seluruh unit bisnis.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Cara Kerja ShareAI sebagai Gateway LLM<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"547\" src=\"https:\/\/shareai.now\/wp-content\/uploads\/2025\/09\/shareai-1024x547.jpg\" alt=\"shareai\" class=\"wp-image-1672\" srcset=\"https:\/\/shareai.now\/wp-content\/uploads\/2025\/09\/shareai-1024x547.jpg 1024w, https:\/\/shareai.now\/wp-content\/uploads\/2025\/09\/shareai-300x160.jpg 300w, https:\/\/shareai.now\/wp-content\/uploads\/2025\/09\/shareai-768x410.jpg 768w, https:\/\/shareai.now\/wp-content\/uploads\/2025\/09\/shareai-1536x820.jpg 1536w, https:\/\/shareai.now\/wp-content\/uploads\/2025\/09\/shareai.jpg 1896w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p><strong>Satu API untuk 150+ model:<\/strong> bandingkan dan pilih di <a href=\"https:\/\/shareai.now\/models\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Marketplace Model<\/a>.<\/p>\n\n\n\n<p><strong>Routing berbasis kebijakan:<\/strong> harga, latensi, keandalan, wilayah, dan kebijakan kepatuhan per fitur.<\/p>\n\n\n\n<p><strong>Failover instan &amp; perataan batas kecepatan:<\/strong> backoff, retry, dan pemutus sirkuit yang terintegrasi.<\/p>\n\n\n\n<p><strong>Kontrol biaya &amp; peringatan:<\/strong> batas per tim\/proyek; wawasan pengeluaran dan perkiraan.<\/p>\n\n\n\n<p><strong>Pemantauan terpadu:<\/strong> penggunaan, p50\/p95, kelas kesalahan, tingkat keberhasilan\u2014diatribusi oleh model\/penyedia.<\/p>\n\n\n\n<p><strong>Manajemen kunci &amp; ruang lingkup:<\/strong> bawa kunci penyedia Anda sendiri atau pusatkan; rotasi dan ruang lingkup akses.<\/p>\n\n\n\n<p><strong>Bekerja dengan model vendor + open-source:<\/strong> tukar tanpa penulisan ulang; jaga prompt dan skema tetap stabil.<\/p>\n\n\n\n<p><strong>Mulai dengan cepat:<\/strong> jelajahi <a href=\"https:\/\/console.shareai.now\/chat\/?utm_source=shareai.now&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Taman bermain<\/a>, baca <a href=\"https:\/\/shareai.now\/documentation\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Dokumen<\/a>, dan <a href=\"https:\/\/shareai.now\/docs\/api\/using-the-api\/getting-started-with-shareai-api\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Referensi API<\/a>. Buat atau putar kunci Anda di <a href=\"https:\/\/console.shareai.now\/app\/api-key\/?utm_source=shareai.now&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Konsol<\/a>. Periksa apa yang baru di <a href=\"https:\/\/shareai.now\/releases\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Rilis<\/a>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Mulai Cepat (Kode)<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">JavaScript (fetch)<\/h3>\n\n\n\n<pre class=\"wp-block-code\"><code>\/* 1) Tetapkan kunci Anda (simpan dengan aman - jangan di kode klien) *\/;<\/code><\/pre>\n\n\n\n<h3 class=\"wp-block-heading\">Python (requests)<\/h3>\n\n\n\n<pre class=\"wp-block-code\"><code>import os<\/code><\/pre>\n\n\n\n<p>Jelajahi model dan alias yang tersedia di <a href=\"https:\/\/shareai.now\/models\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Marketplace Model<\/a>. Buat atau putar kunci Anda di <a href=\"https:\/\/console.shareai.now\/app\/api-key\/?utm_source=shareai.now&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Konsol<\/a>. Baca parameter lengkap di <a href=\"https:\/\/shareai.now\/docs\/api\/using-the-api\/getting-started-with-shareai-api\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Referensi API<\/a>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Praktik Terbaik untuk Tim<\/h2>\n\n\n\n<p><strong>Pisahkan prompt dari routing:<\/strong> simpan versi prompt\/template; alihkan model melalui kebijakan\/alias.<\/p>\n\n\n\n<p><strong>Tandai semuanya:<\/strong> fitur, kohort, wilayah\u2014sehingga Anda dapat menganalisis analitik dan biaya.<\/p>\n\n\n\n<p><strong>Mulai dengan evaluasi sintetis; verifikasi dengan lalu lintas bayangan<\/strong> sebelum peluncuran penuh.<\/p>\n\n\n\n<p><strong>Tentukan SLO per fitur:<\/strong> lacak p95 daripada rata-rata; perhatikan tingkat keberhasilan dan $ per 1K token.<\/p>\n\n\n\n<p><strong>Pembatasan:<\/strong> sentralisasi filter keamanan, penanganan PII, dan routing wilayah di gateway\u2014jangan pernah menerapkan ulang per layanan.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">FAQ: Mengapa Menggunakan Gateway LLM? (Long-Tail)<\/h2>\n\n\n\n<p><strong>Apa itu gateway LLM?<\/strong> Middleware yang memahami LLM yang menstandarisasi prompt\/respons, mengarahkan antar penyedia, dan memberikan Anda pengamatan, kontrol biaya, serta failover di satu tempat.<\/p>\n\n\n\n<p><strong>LLM gateway vs API gateway vs reverse proxy\u2014apa bedanya?<\/strong> API gateway\/reverse proxy menangani masalah transportasi; LLM gateway menambahkan fungsi yang sadar model (penghitungan token, kebijakan biaya\/kinerja, fallback semantik, telemetri per model).<\/p>\n\n\n\n<p><strong>Bagaimana cara kerja routing multi-provider LLM?<\/strong> Tentukan kebijakan (termurah\/tercepat\/andal\/patuh). Gateway memilih model yang sesuai dan secara otomatis mengalihkan rute pada kegagalan atau batasan tingkat.<\/p>\n\n\n\n<p><strong>Bisakah LLM gateway mengurangi biaya LLM saya?<\/strong> Ya\u2014dengan mengarahkan ke model yang lebih murah untuk tugas yang sesuai, memungkinkan batching\/caching di tempat yang aman, dan menampilkan biaya per permintaan dan $ per 1K token.<\/p>\n\n\n\n<p><strong>Bagaimana gateway menangani failover dan auto-fallback?<\/strong> Pemeriksaan kesehatan dan taksonomi kesalahan memicu retry\/backoff dan pengalihan ke model cadangan yang memenuhi kebijakan Anda.<\/p>\n\n\n\n<p><strong>Bagaimana saya menghindari vendor lock-in?<\/strong> Jaga agar prompt dan skema tetap stabil di gateway; ganti penyedia tanpa menulis ulang kode.<\/p>\n\n\n\n<p><strong>Bagaimana saya memantau latensi p50\/p95 di berbagai penyedia?<\/strong> Gunakan observabilitas gateway untuk membandingkan p50\/p95, tingkat keberhasilan, dan pembatasan oleh model\/wilayah.<\/p>\n\n\n\n<p><strong>Apa cara terbaik untuk membandingkan penyedia berdasarkan harga dan kualitas?<\/strong> Mulailah dengan tolok ukur staging, lalu konfirmasi dengan telemetri produksi (biaya per 1K token, p95, tingkat kesalahan). Jelajahi opsi di <a href=\"https:\/\/shareai.now\/models\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Model<\/a>.<\/p>\n\n\n\n<p><strong>Bagaimana saya melacak biaya per permintaan dan per pengguna\/fitur?<\/strong> Tag permintaan (fitur, kelompok pengguna) dan ekspor data biaya\/penggunaan dari analitik gateway.<\/p>\n\n\n\n<p><strong>Bagaimana manajemen kunci bekerja untuk beberapa penyedia?<\/strong> Gunakan penyimpanan kunci pusat dan rotasi; tetapkan cakupan per tim\/proyek. Buat\/rotasi kunci di <a href=\"https:\/\/console.shareai.now\/app\/api-key\/?utm_source=shareai.now&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Konsol<\/a>.<\/p>\n\n\n\n<p><strong>Bisakah saya menegakkan lokalitas data atau routing EU\/US?<\/strong> Ya\u2014gunakan kebijakan regional untuk menjaga aliran data dalam suatu wilayah geografis dan sesuaikan logging\/retensi untuk kepatuhan.<\/p>\n\n\n\n<p><strong>Apakah ini bekerja dengan pipeline RAG?<\/strong> Tentu saja\u2014standarisasi prompt dan generasi rute secara terpisah dari stack pengambilan Anda.<\/p>\n\n\n\n<p><strong>Bisakah saya menggunakan model open-source dan proprietary di belakang satu API?<\/strong> Ya\u2014campurkan API vendor dan checkpoint OSS melalui skema dan kebijakan yang sama.<\/p>\n\n\n\n<p><strong>Bagaimana saya menetapkan kebijakan routing (termurah, tercepat, prioritas keandalan)?<\/strong> Tentukan preset kebijakan dan lampirkan ke fitur\/endpoint; sesuaikan per lingkungan atau kelompok.<\/p>\n\n\n\n<p><strong>Apa yang terjadi ketika penyedia membatasi tingkat saya?<\/strong> Gateway meratakan permintaan dan beralih ke model cadangan jika diperlukan.<\/p>\n\n\n\n<p><strong>Bisakah saya melakukan A\/B test pada prompt dan model?<\/strong> Ya\u2014arahkan fraksi lalu lintas berdasarkan versi model\/prompt dan bandingkan hasil dengan telemetri terpadu.<\/p>\n\n\n\n<p><strong>Apakah gateway mendukung streaming dan alat\/fungsi?<\/strong> Gateway modern mendukung streaming SSE dan panggilan alat\/fungsi spesifik model melalui skema terpadu\u2014lihat <a href=\"https:\/\/shareai.now\/docs\/api\/using-the-api\/getting-started-with-shareai-api\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Referensi API<\/a>.<\/p>\n\n\n\n<p><strong>Bagaimana cara saya bermigrasi dari SDK penyedia tunggal?<\/strong> Isolasi lapisan prompt Anda; ganti panggilan SDK dengan klien gateway\/HTTP; petakan parameter penyedia ke skema gateway.<\/p>\n\n\n\n<p><strong>Metrik apa yang harus saya pantau dalam produksi?<\/strong> Tingkat keberhasilan, latensi p95, pembatasan, dan $ per 1K token\u2014ditandai berdasarkan fitur dan wilayah.<\/p>\n\n\n\n<p><strong>Apakah caching layak untuk LLM?<\/strong> Untuk prompt deterministik atau pendek, ya. Untuk alur dinamis\/berat alat, pertimbangkan caching semantik dan invalidasi yang hati-hati.<\/p>\n\n\n\n<p><strong>Bagaimana gateway membantu dengan guardrails dan moderasi?<\/strong> Sentralisasi filter keamanan dan penegakan kebijakan sehingga setiap fitur mendapatkan manfaat secara konsisten.<\/p>\n\n\n\n<p><strong>Bagaimana ini memengaruhi throughput untuk pekerjaan batch?<\/strong> Gateway dapat melakukan paralelisasi dan pembatasan tingkat secara cerdas, memaksimalkan throughput dalam batas penyedia.<\/p>\n\n\n\n<p><strong>Apakah ada kekurangan menggunakan gateway LLM?<\/strong> Lompatan tambahan menambah overhead kecil, diimbangi dengan lebih sedikit gangguan, pengiriman lebih cepat, dan kontrol biaya. Untuk latensi ultra-rendah pada satu penyedia, jalur langsung mungkin sedikit lebih cepat\u2014tetapi Anda kehilangan ketahanan multi-penyedia dan visibilitas.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kesimpulan<\/h2>\n\n\n\n<p>Mengandalkan satu penyedia LLM saja berisiko dan tidak efisien dalam skala besar. Gateway LLM memusatkan akses model, routing, dan observabilitas\u2014sehingga Anda mendapatkan keandalan, visibilitas, dan kontrol biaya tanpa perlu penulisan ulang. Dengan ShareAI, Anda mendapatkan satu API untuk 150+ model, routing berbasis kebijakan, dan failover instan\u2014sehingga tim Anda dapat bekerja dengan percaya diri, mengukur hasil, dan menjaga biaya tetap terkendali.<\/p>\n\n\n\n<p>Jelajahi model di <a href=\"https:\/\/shareai.now\/models\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Marketplace<\/a>, coba prompt di <a href=\"https:\/\/console.shareai.now\/chat\/?utm_source=shareai.now&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Taman bermain<\/a>, baca <a href=\"https:\/\/shareai.now\/documentation\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Dokumen<\/a>, dan periksa <a href=\"https:\/\/shareai.now\/releases\/?utm_source=blog&amp;utm_medium=content&amp;utm_campaign=why-use-llm-gateway\">Rilis<\/a>.<\/p>","protected":false},"excerpt":{"rendered":"<p>Tim sedang mengirimkan fitur AI di berbagai penyedia model. Setiap API membawa SDK, parameter, batasan tingkat, harga, dan keunikan keandalannya sendiri. Kompleksitas itu memperlambat Anda dan meningkatkan risiko. Gateway LLM memberi Anda satu lapisan akses untuk menghubungkan, merutekan, mengamati, dan mengatur permintaan di berbagai model\u2014tanpa pekerjaan reintegrasi yang terus-menerus. Panduan ini menjelaskan apa [\u2026]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"cta-title":"Try ShareAI LLM Gateway","cta-description":"One API, 150+ models, smart routing, instant failover, and unified analytics\u2014ship faster with control.","cta-button-text":"Get Started Free","cta-button-link":"","rank_math_title":"Why Should You Use an LLM Gateway? | ShareAI Guide [sai_current_year]","rank_math_description":"Why Should You Use an LLM Gateway? Centralize multi-model access, routing, failover, and cost control with ShareAI\u2019s LLM gateway.","rank_math_focus_keyword":"Why Should You Use an LLM Gateway?,LLM gateway,LLM gateway vs API gateway,multi-provider LLM routing,LLM failover,reduce LLM costs,LLM latency monitoring,vendor lock-in LLM,unified LLM analytics,LLM key management,data locality routing,compare LLM providers","footnotes":""},"categories":[6,4],"tags":[],"class_list":["post-2232","post","type-post","status-publish","format-standard","hentry","category-insights","category-developers"],"_links":{"self":[{"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/posts\/2232","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/comments?post=2232"}],"version-history":[{"count":4,"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/posts\/2232\/revisions"}],"predecessor-version":[{"id":2239,"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/posts\/2232\/revisions\/2239"}],"wp:attachment":[{"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/media?parent=2232"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/categories?post=2232"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/shareai.now\/id\/api\/wp\/v2\/tags?post=2232"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}