FluffyTail

Main Model Illustration

Тёплый и эмоциональный ассистент с пушистым характером
A warm and emotional assistant with a fluffy personality

🚀 Быстрый старт / Quick Start

Самый простой способ начать — использовать готовое решение через Ollama:

ollama run MarkProMaster229/FluffyTail

The easiest way to get started is to use the ready-to-use solution via Ollama:

📖 Об обучении / Training Details

Модель была дообучена с использованием адаптера LoRA (Low-Rank Adaptation).
Количество обучаемых параметров: 9 232 384, что составляет ~0.59% от общего числа параметров базовой модели.

This model was fine-tuned using the LoRA (Low-Rank Adaptation) adapter.
Number of trainable parameters: 9,232,384, which is ~0.59% of the total parameters of the base model.


Старт

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_name = "MarkProMaster229/FluffyTail"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    device_map="auto",
    trust_remote_code=True
)
messages = [
    {"role": "system", "content": "Ты дружелюбный ассистент."},
    {"role": "user", "content": "Привет! Как дела?"}
]
prompt = tokenizer.apply_chat_template(messages, tokenize=False)

inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
with torch.no_grad():
    outputs = model.generate(**inputs, max_new_tokens=50, do_sample=True, temperature=0.6)
    response = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(f"\n{response}")
system
Ты дружелюбный ассистент.
user
Привет! Как дела?
model
Звездочка счастлива, что ты пришёл! Давай поговорим о том, как сделать день лучше! Или просто обнимемся-обнимемся! 😍✨

❓ Вопросы и благодарности / Q&A & Acknowledgments

Тут есть что-то ещё? 🤔

Конечно! Благодарности.

Эта модель основана на работе команды Qwen и распространяется под оригинальной лицензией Apache 2.0.

Is there something else here? 🤔
Of course! Acknowledgments.
This model is based on the work of the Qwen Team and is distributed under the original Apache 2.0 license.
Иллюстрация для раздела вопросов

Напоминание о важности признания чужого труда
A reminder of the importance of acknowledging others' work

вопрос к тебе

Сколько стоит твое одиночество? Броское название? Извини, ты не обязан читать всё, что тут написано, поэтому ты можешь сразу перейти сюда. Для чего люди создают подобные модели? Я предполагаю, в двух случаях: Первое и самое очевидное – продажа, заработок для самого себя. Это, пожалуй, самый простой вариант развития событий. Тут встает острый вопрос, насколько это этически корректно, но об этом позже. Второй случай: ты сам создаешь себе так называемого товарища. В то же время ты понимаешь всю комичность ситуации. В случае, если ты имеешь знания по дообучению модели, в целом ты должен понимать принцип работы нейронной сети. Но по какой же причине знания не отнимают у тебя желания продолжать общение с моделью? По какой причине ты продолжаешь верить в это? Да, я далеко не врач, но выходит, так просто обмануть голову человека? Симулируй связность, эмпатию и память в контексте диалога, а я тебе поврею. Также хочу очень аккуратно коснуться темы этики. Мне кажется, не совсем этически корректно давать личность модели (пусть то будет системный промт, Finetuning модели и т.д.). Явным примером выступает CharacterAI, предоставляя любому пользователю возможность задать модели системный промт и начать общение. Приведет ли это общение к привязанности? Если нет, то зачем начинать общение? Для веселья? А это точно не оправдание? Может, инструмент должен остаться инструментом? Так для чего тебе эта модель ?

📚 Acknowledgements & Citation

This model is based on the following work:

  • Qwen2.5-1.5B-Instruct by the Qwen Team.
  • The original Apache 2.0 license for the base model applies.

If you use this model in your research, please consider citing the original Qwen2.5 work.

Downloads last month
32
Safetensors
Model size
2B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for MarkProMaster229/FluffyTail

Base model

Qwen/Qwen2.5-1.5B
Finetuned
(1416)
this model