split_text_on_tokens#

langchain_text_splitters.base.split_text_on_tokens(*, text: str, tokenizer: Tokenizer) List[str][source]#

分割传入的文本并使用分词器返回块。

Parameters:
Return type:

列表[str]