removed ai features
This commit is contained in:
parent
e09db01e4b
commit
8ac4504621
1 changed files with 46 additions and 46 deletions
|
@ -69,7 +69,7 @@ return {
|
|||
{ name = "luasnip" }, -- snippets
|
||||
{ name = "buffer" }, -- text within current buffer
|
||||
{ name = "path" }, -- file system paths
|
||||
{ name = "cmp_ai" }, -- AI completion
|
||||
-- { name = "cmp_ai" }, -- AI completion
|
||||
}),
|
||||
-- configure lspkind for vs-code like pictograms in completion menu
|
||||
formatting = {
|
||||
|
@ -91,49 +91,49 @@ return {
|
|||
end,
|
||||
},
|
||||
|
||||
{
|
||||
-- ─< for ai use >──────────────────────────────────────────────────────────────────────
|
||||
"tzachar/cmp-ai",
|
||||
dependencies = {
|
||||
"hrsh7th/nvim-cmp",
|
||||
"tzachar/cmp-ai",
|
||||
},
|
||||
|
||||
config = function()
|
||||
local cmp = require("cmp")
|
||||
local cmp_ai = require("cmp_ai.config")
|
||||
|
||||
-- Setup cmp-ai configuration
|
||||
cmp_ai:setup({
|
||||
max_lines = 100,
|
||||
provider = "Ollama",
|
||||
-- provider_options = {
|
||||
-- model = "codellama:7b-code",
|
||||
-- auto_unload = false,
|
||||
-- raw_response_cb = function(response)
|
||||
-- vim.notify(vim.inspect(response))
|
||||
-- vim.g.ai_raw_response = response
|
||||
-- end,
|
||||
-- },
|
||||
provider_options = {
|
||||
model = "qwen2.5-coder:7b-base-q6_K",
|
||||
prompt = function(lines_before, lines_after)
|
||||
return "<|fim_prefix|>" .. lines_before .. "<|fim_suffix|>" .. lines_after .. "<|fim_middle|>"
|
||||
end,
|
||||
raw_response_cb = function(response)
|
||||
vim.notify(vim.inspect(response))
|
||||
vim.g.ai_raw_response = response
|
||||
end,
|
||||
},
|
||||
notify = true,
|
||||
notify_callback = function(msg)
|
||||
vim.notify(msg)
|
||||
end,
|
||||
run_on_every_keystroke = true,
|
||||
ignored_file_types = {
|
||||
txt = true,
|
||||
},
|
||||
})
|
||||
end,
|
||||
},
|
||||
-- {
|
||||
-- -- ─< for ai use >──────────────────────────────────────────────────────────────────────
|
||||
-- "tzachar/cmp-ai",
|
||||
-- dependencies = {
|
||||
-- "hrsh7th/nvim-cmp",
|
||||
-- "tzachar/cmp-ai",
|
||||
-- },
|
||||
--
|
||||
-- config = function()
|
||||
-- local cmp = require("cmp")
|
||||
-- local cmp_ai = require("cmp_ai.config")
|
||||
--
|
||||
-- -- Setup cmp-ai configuration
|
||||
-- cmp_ai:setup({
|
||||
-- max_lines = 100,
|
||||
-- provider = "Ollama",
|
||||
-- -- provider_options = {
|
||||
-- -- model = "codellama:7b-code",
|
||||
-- -- auto_unload = false,
|
||||
-- -- raw_response_cb = function(response)
|
||||
-- -- vim.notify(vim.inspect(response))
|
||||
-- -- vim.g.ai_raw_response = response
|
||||
-- -- end,
|
||||
-- -- },
|
||||
-- provider_options = {
|
||||
-- model = "qwen2.5-coder:7b-base-q6_K",
|
||||
-- prompt = function(lines_before, lines_after)
|
||||
-- return "<|fim_prefix|>" .. lines_before .. "<|fim_suffix|>" .. lines_after .. "<|fim_middle|>"
|
||||
-- end,
|
||||
-- raw_response_cb = function(response)
|
||||
-- vim.notify(vim.inspect(response))
|
||||
-- vim.g.ai_raw_response = response
|
||||
-- end,
|
||||
-- },
|
||||
-- notify = true,
|
||||
-- notify_callback = function(msg)
|
||||
-- vim.notify(msg)
|
||||
-- end,
|
||||
-- run_on_every_keystroke = true,
|
||||
-- ignored_file_types = {
|
||||
-- txt = true,
|
||||
-- },
|
||||
-- })
|
||||
-- end,
|
||||
-- },
|
||||
}
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue