@@ -112,48 +112,69 @@ def get_tensor(self, name: str) -> ctypes.c_void_p:
112112 # Vocab
113113
114114 def token_get_text (self , token : int ) -> str :
115- return llama_cpp .llama_token_get_text (self .vocab , token ).decode ("utf-8" )
115+ return llama_cpp .llama_vocab_get_text (self .vocab , token ).decode ("utf-8" )
116116
117117 def token_get_score (self , token : int ) -> float :
118- return llama_cpp .llama_token_get_score (self .vocab , token )
118+ return llama_cpp .llama_vocab_get_score (self .vocab , token )
119119
120120 def token_get_attr (self , token : int ) -> int :
121- return llama_cpp .llama_token_get_attr (self .vocab , token )
121+ return llama_cpp .llama_vocab_get_attr (self .vocab , token )
122+
123+ def token_is_eog (self , token : int ) -> bool :
124+ return llama_cpp .llama_vocab_is_eog (self .vocab , token )
125+
126+ def token_is_control (self , token : int ) -> bool :
127+ return llama_cpp .llama_vocab_is_control (self .vocab , token )
122128
123129 # Special tokens
124130
125131 def token_bos (self ) -> int :
126- return llama_cpp .llama_token_bos (self .vocab )
132+ return llama_cpp .llama_vocab_bos (self .vocab )
127133
128134 def token_eos (self ) -> int :
129- return llama_cpp .llama_token_eos (self .vocab )
135+ return llama_cpp .llama_vocab_eos (self .vocab )
130136
131- def token_cls (self ) -> int :
132- return llama_cpp .llama_token_cls (self .vocab )
137+ def token_eot (self ) -> int :
138+ return llama_cpp .llama_vocab_eot (self .vocab )
133139
134140 def token_sep (self ) -> int :
135- return llama_cpp .llama_token_sep (self .vocab )
141+ return llama_cpp .llama_vocab_sep (self .vocab )
136142
137143 def token_nl (self ) -> int :
138- return llama_cpp .llama_token_nl (self .vocab )
144+ return llama_cpp .llama_vocab_nl (self .vocab )
139145
140- def token_prefix (self ) -> int :
141- raise NotImplementedError ( "token_prefix is not implemented in llama.cpp" )
146+ def token_pad (self ) -> int :
147+ return llama_cpp . llama_vocab_pad ( self . vocab )
142148
143- def token_middle (self ) -> int :
144- raise NotImplementedError ( "token_middle is not implemented in llama.cpp" )
149+ def token_cls (self ) -> int :
150+ return llama_cpp . llama_vocab_cls ( self . vocab )
145151
146- def token_suffix (self ) -> int :
147- raise NotImplementedError ( "token_suffix is not implemented in llama.cpp" )
152+ def token_fim_pre (self ) -> int :
153+ return llama_cpp . llama_vocab_fim_pre ( self . vocab )
148154
149- def token_eot (self ) -> int :
150- return llama_cpp .llama_token_eot (self .vocab )
155+ def token_fim_suf (self ) -> int :
156+ return llama_cpp .llama_vocab_fim_suf (self .vocab )
157+
158+ def token_fim_mid (self ) -> int :
159+ return llama_cpp .llama_vocab_fim_mid (self .vocab )
160+
161+ def token_fim_pad (self ) -> int :
162+ return llama_cpp .llama_vocab_fim_pad (self .vocab )
163+
164+ def token_fim_rep (self ) -> int :
165+ return llama_cpp .llama_vocab_fim_rep (self .vocab )
166+
167+ def token_fim_sep (self ) -> int :
168+ return llama_cpp .llama_vocab_fim_sep (self .vocab )
169+
170+ def get_add_bos (self ) -> bool :
171+ return llama_cpp .llama_vocab_get_add_bos (self .vocab )
151172
152- def add_bos_token (self ) -> bool :
153- return llama_cpp .llama_add_bos_token (self .vocab )
173+ def get_add_eos (self ) -> bool :
174+ return llama_cpp .llama_vocab_get_add_eos (self .vocab )
154175
155- def add_eos_token (self ) -> bool :
156- return llama_cpp .llama_add_eos_token (self .vocab )
176+ def get_add_sep (self ) -> bool :
177+ return llama_cpp .llama_vocab_get_add_sep (self .vocab )
157178
158179 # Tokenization
159180
0 commit comments