@@ -857,22 +857,22 @@ struct common_init_result common_init_from_params(common_params & params) {
857857 return iparams;
858858 }
859859
860- const llama_vocab * vocab = llama_get_vocab (model);
860+ const llama_vocab * vocab = llama_model_get_vocab (model);
861861
862862 if (params.reranking ) {
863863 bool ok = true ;
864864
865- if (llama_token_bos (vocab) == LLAMA_TOKEN_NULL) {
865+ if (llama_vocab_bos (vocab) == LLAMA_TOKEN_NULL) {
866866 LOG_WRN (" %s: warning: vocab does not have a BOS token, reranking will not work\n " , __func__);
867867 ok = false ;
868868 }
869869
870- if (llama_token_eos (vocab) == LLAMA_TOKEN_NULL) {
870+ if (llama_vocab_eos (vocab) == LLAMA_TOKEN_NULL) {
871871 LOG_WRN (" %s: warning: vocab does not have an EOS token, reranking will not work\n " , __func__);
872872 ok = false ;
873873 }
874874
875- if (llama_token_sep (vocab) == LLAMA_TOKEN_NULL) {
875+ if (llama_vocab_sep (vocab) == LLAMA_TOKEN_NULL) {
876876 LOG_WRN (" %s: warning: vocab does not have a SEP token, reranking will not work\n " , __func__);
877877 ok = false ;
878878 }
@@ -886,7 +886,7 @@ struct common_init_result common_init_from_params(common_params & params) {
886886
887887 auto cparams = common_context_params_to_llama (params);
888888
889- llama_context * lctx = llama_new_context_with_model (model, cparams);
889+ llama_context * lctx = llama_init_from_model (model, cparams);
890890 if (lctx == NULL ) {
891891 LOG_ERR (" %s: failed to create context with model '%s'\n " , __func__, params.model .c_str ());
892892 llama_model_free (model);
@@ -900,7 +900,7 @@ struct common_init_result common_init_from_params(common_params & params) {
900900
901901 if (!params.control_vectors .empty ()) {
902902 if (params.control_vector_layer_start <= 0 ) params.control_vector_layer_start = 1 ;
903- if (params.control_vector_layer_end <= 0 ) params.control_vector_layer_end = llama_n_layer (model);
903+ if (params.control_vector_layer_end <= 0 ) params.control_vector_layer_end = llama_model_n_layer (model);
904904
905905 const auto cvec = common_control_vector_load (params.control_vectors );
906906 if (cvec.n_embd == -1 ) {
@@ -944,14 +944,14 @@ struct common_init_result common_init_from_params(common_params & params) {
944944 common_set_adapter_lora (lctx, params.lora_adapters );
945945 }
946946
947- if (params.sampling .ignore_eos && llama_token_eos (vocab) == LLAMA_TOKEN_NULL) {
947+ if (params.sampling .ignore_eos && llama_vocab_eos (vocab) == LLAMA_TOKEN_NULL) {
948948 LOG_WRN (" %s: warning: vocab does not have an EOS token, ignoring --ignore-eos\n " , __func__);
949949 params.sampling .ignore_eos = false ;
950950 }
951951
952952 if (params.sampling .ignore_eos ) {
953- for (llama_token i = 0 ; i < llama_n_vocab (vocab); i++) {
954- if (llama_token_is_eog (vocab, i)) {
953+ for (llama_token i = 0 ; i < llama_vocab_n_vocab (vocab); i++) {
954+ if (llama_vocab_is_eog (vocab, i)) {
955955 LOG_INF (" %s: added %s logit bias = %f\n " , __func__, common_token_to_piece (lctx, i).c_str (), -INFINITY);
956956 params.sampling .logit_bias .push_back ({i, -INFINITY});
957957 }
@@ -972,8 +972,8 @@ struct common_init_result common_init_from_params(common_params & params) {
972972 LOG_WRN (" %s: warming up the model with an empty run - please wait ... (--no-warmup to disable)\n " , __func__);
973973
974974 std::vector<llama_token> tmp;
975- llama_token bos = llama_token_bos (vocab);
976- llama_token eos = llama_token_eos (vocab);
975+ llama_token bos = llama_vocab_bos (vocab);
976+ llama_token eos = llama_vocab_eos (vocab);
977977
978978 // some models (e.g. T5) don't have a BOS token
979979 if (bos != LLAMA_TOKEN_NULL) {
@@ -1564,7 +1564,7 @@ std::vector<llama_token> common_tokenize(
15641564 bool add_special,
15651565 bool parse_special) {
15661566 const llama_model * model = llama_get_model (ctx);
1567- const llama_vocab * vocab = llama_get_vocab (model);
1567+ const llama_vocab * vocab = llama_model_get_vocab (model);
15681568 return common_tokenize (vocab, text, add_special, parse_special);
15691569}
15701570
@@ -1589,7 +1589,7 @@ std::vector<llama_token> common_tokenize(
15891589
15901590std::string common_token_to_piece (const struct llama_context * ctx, llama_token token, bool special) {
15911591 const llama_model * model = llama_get_model (ctx);
1592- const llama_vocab * vocab = llama_get_vocab (model);
1592+ const llama_vocab * vocab = llama_model_get_vocab (model);
15931593 return common_token_to_piece (vocab, token, special);
15941594}
15951595
@@ -1611,7 +1611,7 @@ std::string common_token_to_piece(const struct llama_vocab * vocab, llama_token
16111611
16121612std::string common_detokenize (const struct llama_context * ctx, const std::vector<llama_token> & tokens, bool special) {
16131613 const llama_model * model = llama_get_model (ctx);
1614- const llama_vocab * vocab = llama_get_vocab (model);
1614+ const llama_vocab * vocab = llama_model_get_vocab (model);
16151615 return common_detokenize (vocab, tokens, special);
16161616}
16171617
0 commit comments