Bloom with Bllossom:
Start your first LLM journey π₯
λΉμ μ μ°κ΅¬, λΉμ¦λμ€, κ·Έλ¦¬κ³ μΌμμνμ Bllossomμ λμ νμΈμ.
Upscale your AI's Language πͺ‘
λ²€μΉλ§ν¬μμ κ°κ΄μ λ¬Έμ λ§ μνΈλ LLM, μ€μ λ‘ μ¨λ³΄κ³ μ€λ§νμ
¨λμ?
νκ΅μ΄λ‘ λ¬Όμ΄λ΄λ μμ΄λ‘ λ΅νλ LLM, μκ·Έλ¬λ κ±ΈκΉμ?
Bllossom μ μλ‘μ΄ λλ©μΈμ μΈμ΄μ μ§μμ ν¨κ³Όμ μΌλ‘ νμ΅ν©λλ€.
(Choi et al., "Optimizing Language Augmentation for Multilingual Large Language Models: A Case Study on Korean", LREC-Coling 2024)
## Try Bllossom Easily Β π
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model=AutoModelForCausalLM.from_pretrained("Bllossom/llama-3-Korean-Bllossom-70B-gguf-Q4_K_M")
text = "μλ ? λ λꡬμΌ?"
tokend=tokenizer(text,return_tensors="pt")
output=model.generate(**tokend,max_length=124)
print(tokenizer.decode(output[0]))
μλ νμΈμ! μ λ Teddysumμ μΈκ³΅μ§λ₯ μΈμ΄ λͺ¨λΈ Bllossom μ λλ€. μ λ λ€κ΅μ΄ λͺ¨λΈλ‘ νκ΅μ΄μ μμ΄λ₯Ό ꡬμ¬ν©λλ€. 무μμ΄λ λ΅λ³ λ릴 μ μλλ‘ μ μ°¨ μ§μμ λνκ°κ³ μμ΅λλ€. μ΄λμ λμμ΄ νμν λΆλΆμ΄ μλμ? :)
## CC BY-NC 4.0
About β
ν λμΈμ μ°κ΅¬μ§ν₯ μ€ννΈμ μΌλ‘ μ¬λμκ², κ·Έλ¦¬κ³ AIμκ² μκ°μ μ£Όμ΄ μμ κ³³μμλΆν° μΈμμ λ°κΎΈκ³ μ ν©λλ€.
μ°λ¦¬λ μμ§λ§ λ 립μ μΈ νμ λλ€. μλ£, λ©ν°λͺ¨λ¬, κΈμ°κΈ° νκ°μ κ°μ μ λ¬Έ λΆμΌμ μ΄λ €μ΄ λ¬Έμ λ₯Ό ν΄κ²°νλ κ³Όμ μ 체λ₯Ό μ¦κΈ°κ³ μμ΅λλ€.
Careers βοΈ
μ°λ¦¬λ μμ§λ§ λ 립μ μΈ νμΌλ‘, μμ ν μ¬ν 근무(Anytime, Anywhere) νμμ λ 립μ μ΄κ³ μ¬λ €κΉμ μ°κ΅¬μλ€λ‘ ꡬμ±λμ΄ μμ΅λλ€.Β
μ°λ¦¬λ μ€ν¨μμ λ§μ κ²μ λ°°μ°μ§λ§, μ μ€νκ² μ΄λ£¨μ΄μ§ μ€ν¨μμλ λͺ¨λ κ²μ λ°°μΈ μ μλ€κ³ λ―Ώκ³ μμ΅λλ€.
ν¬μ§μ κ³Ό μκ΄μμ΄, ν¨κ»νκ³ μ νλ€λ©΄ μ°λ½μ£ΌμΈμ. dm@teddysum.ai
## μ±μ© ν¬μ§μ (πππππ)
Full-stack Developer (Web-based AI-agent Interface)
LLM / RAG Engineer (LLM / RAG pipeline serving)