nvidia/llama-nemotron-embed-1b-v2-GGUF
import numpy as np
import torch
from llama_cpp import Llama
from sentence_transformers import SentenceTransformer
from sentence_transformers.util import cos_sim
model = SentenceTransformer(
"nvidia/llama-nemotron-embed-1b-v2",
trust_remote_code=True,
model_kwargs={"dtype": torch.bfloat16},
)
llama = Llama.from_pretrained(
repo_id="mykor/llama-nemotron-embed-1b-v2-GGUF",
filename="llama-nemotron-embed-1B-v2-BF16.gguf",
verbose=False,
embedding=True,
n_ctx=0,
)
text = """λ¨μμλ λλ₯Ό λ λ
λ ν¬λ―Έν΄μ§κ³
μ΄λ€ μΈλ‘μμ νκ³
μ΄μκ°λλΌλ
λ΄κ² λΏμλ κΈ°μ΅μ
λ μ°¬λνκ² λ²μ Έ
μμ§λ λ μ μμ§λ λͺ»νκ³ λ
μ λ λ λ μ κ°ν κ² κ°μλ°
κ²μ μ§λ¦° μ±λ‘
μ²μμ΄λΌμ κ·Έλ
κ° λ³Έ μ μλ κΈΈμ
λ μ μ μμ μ±
κ°μλ₯Ό μΈμ΄ μ±
μμ²λ κ½μμ²λΌ
λ¨μ΄μ§ λ λ΄ μμ μ‘μμ€λ
λμ λ°€μ μ§μΈκ²
λΉμΌλ‘
λ
λ΄ λ§μ ν κ·Έλ¦Όμλ λ μΌν€λ λ―νκ³
κΈ°λ€λ¦¬λ νμ΄μ λ
μ€μ³κ°λ― λ λκ³
κ²¨μ° λ§€λ¬λ¦° ν¬λ―Έν λ¬λΉμ λ―Έλλ¬μ Έ
μμ§λ λ λ²μ΄λμ§ λͺ»νκ³ λ
μ λ λ λ μ 무λμ Έ κ°λλ°
μ΄μ© μ€ λͺ¨λ₯΄κ³
μ²μμ΄λΌμ κ·Έλ
κ° λ³Έ μ μλ κΈΈμ
λ μ μ μμ μ±
κ°μλ₯Ό μΈμ΄ μ±
μμ²λ κ½μμ²λΌ
λ¨μ΄μ§ λ λ΄ μμ μ‘μμ€λ
λμ λ°€μ μ§μΈκ²
λΉμΌλ‘
κ·Έλ₯ λ¬μλμ μ λλ¨Έμ
μ΄λμμ§λ νλμ΄
μ°λ¦΄ λ€μ μ°Ύμ μ μκ²
κ²μ λ°€μ΄
무μμ§ μλ€κΈ°λ³΄λ¨
ν¬κΈ°ν μ μλ κ² μλ
μ΄μ μμΌ λ³΄μ΄λ€
μ΄λ―Έ λ°λ»νλλ°
κ³ κ°λ₯Ό λ¨κ΅¬κ³
λ κ·λ₯Ό λ§κ³
λ΄ κ³μ μ§μΌμ£Όλ
λ λμΉ λ λ νλ² μ‘μμ€λ
μ½μν κ² μ°¬λν λ―Έμλ₯Ό
OH~ OH~ OH~
(κ·Έλ₯ λ¬μλμ μ λλ¨Έμ
μ΄λμμ§λ νλμ΄
μ°λ¦΄ λ€μ μ°Ύμ μ μκ²
κ²μ λ°€μ΄
무μμ§ μλ€κΈ°λ³΄λ¨
ν¬κΈ°ν μ μλ κ² μλ)
μμΉ¨μΌ κ±°μΌ μ°λ¦° λ"""
embed1 = model.encode(text)
embed2 = np.array(llama.embed(text), dtype=np.float32)
print(cos_sim(embed1, embed2).item())
0.9999110698699951
- Downloads last month
- 541
Hardware compatibility
Log In to add your hardware
3-bit
4-bit
5-bit
6-bit
8-bit
16-bit
32-bit
Inference Providers NEW
This model isn't deployed by any Inference Provider. π Ask for provider support
Model tree for mykor/llama-nemotron-embed-1b-v2-GGUF
Base model
nvidia/llama-nemotron-embed-1b-v2