Isa sa mga pinakakaraniwang tanong na natatanggap namin mula sa mga posibleng customer at gumagamit ay, “Nasaan ang inyong mga tagakilala ng layunin?”
Wala kami noon. At oo, sinadya talaga namin ito.
Gumagamit ang Botpress ng LLMs para tukuyin ang layunin ng user. Bakit? Kung gumagawa ka ng chatbot o isang AI agent, mas maganda ito para sa parehong gumagawa at gumagamit.
Malakas ang paninindigan namin dito, kaya gusto kong ipaliwanag kung bakit wala kaming intent classifier.
Maikling buod: Mas madaling gawin, mas tama ang resulta, at mas simple ang pag-maintain.
Noong mga Lumang Panahon (bago ang LLM)
(Kung pamilyar ka na sa kung ano ang intent classifier at paano ito gumagana, puwede mong laktawan ang bahaging ito.)
Ang intent classifier ay kasangkapang nag-uuri ng mga input ng user sa mga itinakdang layunin batay sa training data.
Kailangang magtipon at mag-label ng mga developer ng napakaraming halimbawa para sa bawat posibleng layunin, umaasang matutukoy ng sistema ang mga input ng user batay sa mga halimbawang ito.
Halimbawa, sa isang e-commerce na chatbot, maaaring magtakda ang developer ng layunin tulad ng "TrackOrder". Ang mga halimbawa ng tanong ay: "Nasaan ang package ko?" "I-track ang order ko," at "Maaari mo bang tingnan ang delivery status para sa akin?"
Tinuturuan nila ang AI agent na kilalanin ang layunin ng user sa pamamagitan ng pagbibigay ng mga halimbawa. At oo, mano-mano nilang nilalagay ang lahat ng iyon.
Sa kabutihang-palad, halos nawala na ang pangangailangang ito ng mano-manong pagtutugma ng mga posibleng tanong sa isang layunin nang naging mas advanced ang LLMs.
Pero marami pa ring conversational AI platform ang gumagamit nito. Bakit? Pag-uusapan natin yan.
4 na Kakulangan ng Intent Classifier
Hindi lang dahil mas matagal ang proseso—maraming dahilan kung bakit hindi maganda ang intent classifier. Heto ang ilan:
1. Pagka-depende sa datos
Malakas sa datos ang intent classifier. Kailangan nila ng napakalaking dataset ng mga halimbawa ng user para sa bawat layunin upang gumana nang tama. Kung wala nito, hirap silang matukoy nang tama ang mga input.
At ang paggawa ng mga dataset na ito ay matrabaho. Gumugugol ng napakaraming oras ang mga developer sa pagkuha at pag-label ng mga halimbawa—na, walang duda, ay hindi magandang paggamit ng kanilang oras.
2. Limitadong kakayahang magpalawak
Hindi rin talaga dinisenyo ang intent classifier para sa paglaki. Ang pagdagdag ng bagong layunin ay nangangahulugan ng pagkuha pa ng datos at muling pagsasanay ng modelo, na nagiging sagabal agad sa pag-develop. Dagdag pa, sakit ito sa ulo sa maintenance—dahil habang nagbabago ang wika, nagbabago rin ang mga tanong.
3. Mahinang pag-unawa sa wika
Walang tunay na pag-unawa sa wika ang intent classifier. Nahihirapan sila sa mga pagbabago sa wika, gaya ng:
- Mga kasingkahulugan
- Iba’t ibang paraan ng pagsabi
- Malabong pahayag
- Mga maling baybay
- Hindi pamilyar na kolokyal na ekspresyon
- Pira-pirasong input
Karaniwan ding tinitingnan nila ang bawat tanong nang hiwalay, kaya hindi nila kayang panatilihin ang konteksto ng usapan.
4. Overfitting
Madaling ma-overfit ang intent classifier, ibig sabihin, namememorya lang nila ang mga halimbawa sa training imbes na matutunan ang pangkalahatang pattern.
Ibig sabihin, mahusay lang sila kapag eksaktong kapareho ng mga pariralang nakita na nila, ngunit nahihirapan kapag bago o iba-iba ang input. Dahil dito, mas marupok sila kaysa nararapat para sa propesyonal na gamit.
6 na Dahilan Kung Bakit Mas Mabuti ang LLMs
Halos naresolba na ng LLMs ang mga problemang ito. Nauunawaan nila ang konteksto at mga detalye, at hindi kailangang punuin ng training data para gumana. Ang isang LLM-based na agent ay puwede nang makipag-usap agad pagkagawa pa lang.
1. Kakayahang zero-shot learning
Hindi kailangan ng LLMs ng mga halimbawa para matuto. Dahil sa malawak nilang pretraining, naiintindihan na nila ang konteksto, detalye, at layunin kahit walang ibinigay na partikular na halimbawa mula sa developer.
2. Isang bagay na tinatawag na 'nuance'
Namamayani ang LLMs kung saan pumapalya ang intent classifier. Kayang-kaya nilang intindihin ang mga idyoma, sarkasmo, at malabong wika.
Dahil sa malawak nilang training sa iba’t ibang dataset, kaya nilang maunawaan ang mga pinong detalye ng komunikasyong pantao na madalas hindi makita ng intent classifier.
3. Mas mahusay na pag-unawa sa konteksto
Hindi nakakalimot ang LLMs sa usapan. Natatandaan nila ang mga naunang sinabi, kaya mas natural at tuloy-tuloy ang daloy ng pag-uusap.
Nakakatulong din ang kontekstong ito para linawin ang mga malabong bahagi. Kahit malabo o komplikado ang input, kaya nilang buuin ito batay sa mas malawak na usapan.
4. Kakayahang mag-scale
Mas mahusay talaga ang LLMs pagdating sa scalability. Hindi na kailangan ng retraining para sa bagong paksa, dahil malawak ang kanilang pag-unawa sa wika.
Ibig sabihin, handa silang gamitin sa halos anumang sitwasyon agad-agad. Para sa multi-agent system, malinaw na mas mainam gamitin ang LLM kaysa intent classifier.
5. Kakayahang umangkop
Hindi umaasa ang LLMs sa matitigas na template. Dahil sa kanilang kakayahang umangkop, natural, iba-iba, at akma sa usapan ang mga sagot. Mas maganda ang karanasan ng gumagamit kumpara sa madaling mabasag na intent classifier.
6. Mas kaunting training data
Hindi kailangan ng LLMs ng partikular na labeled data para magampanan ang trabaho. Ang lakas nila ay galing sa malawak na pretraining sa iba’t ibang teksto, kaya hindi sila umaasa sa matrabahong annotated dataset.
Kung kailangan, puwedeng i-customize ang LLM ng mga developer para sa kanilang proyekto. Halimbawa, puwedeng i-fine-tune ang LLM gamit ang kaunting data para mabilis itong makaangkop sa espesyalisadong gamit o industriya.
Bakit gumagamit ng mga tagakilala ng layunin ang ibang mga kumpanya?
Magandang tanong. Kung mas mahusay talaga ang mga LLM sa pagkilala ng layunin, bakit kaya marami pa ring kumpanya ang gumagamit ng mga tagakilala ng layunin?
Hindi maganda ang sagot, at hindi ito pinakamatamis sabihin: problema ito ng lumang teknolohiya.
Maraming kumpanya ang may interes na gamitin pa rin ang intent classifier. Malaki na ang base ng gumagamit nila na umaasa rito. Wala silang dahilan para ilayo ang mga gumagamit mula sa sistemang ginawa nila.
Pero LLM-first ang Botpress
Mas mahusay ang LLMs sa pagtukoy ng layunin kaysa sa luma at tradisyonal na intent classifier. Kaya noong 2020, sinimulan naming muli ang lahat para maging LLM-first.
Alam naming may mas mahusay na teknolohiya na, at imbes na kumapit sa luma, nag-invest kami para sumubok ng bago.
Magdadagdag ba kami ng mga tagakilala ng layunin?
Hindi. Mahalaga sa amin ang karanasan ng aming mga builder at ng kanilang mga user.
Ang hinaharap ng intent classification
Ang intent classifier ay kasangkapan ng nakaraan. Kaya't lubusan naming pinili ang LLMs.
Habang patuloy na gumagaling ang LLMs, gayundin ang mga AI agent na gawa sa Botpress. Handa at sabik kaming itaas pa ang antas ng conversational AI.
Kung gusto mong gumawa ng flexible na AI agent gamit ang LLMs, puwede kang magsimulang gumawa sa Botpress. Libre ito.





.webp)
