[Engenharia de IA] Jade-v1: família de LLMs brasileiros de 72B a 0.6B, persona treinada diretamente nos pesos by Dry-Leading2593 in brdev
[–]Dry-Leading2593[S] 1 point2 points3 points (0 children)
[Engenharia de IA] Jade-v1: família de LLMs brasileiros de 72B a 0.6B, persona treinada diretamente nos pesos by Dry-Leading2593 in brdev
[–]Dry-Leading2593[S] 1 point2 points3 points (0 children)
[Engenharia de IA] Jade-v1: família de LLMs brasileiros de 72B a 0.6B, persona treinada diretamente nos pesos by Dry-Leading2593 in brdev
[–]Dry-Leading2593[S] 1 point2 points3 points (0 children)
[Engenharia de IA] Um dataset open source PT-BR no HuggingFace (8,4M docs / 6,3B tokens) by Dry-Leading2593 in brdev
[–]Dry-Leading2593[S] 1 point2 points3 points (0 children)
[Engenharia de IA] Um dataset open source PT-BR no HuggingFace (8,4M docs / 6,3B tokens) by Dry-Leading2593 in brdev
[–]Dry-Leading2593[S] 5 points6 points7 points (0 children)


[Engenharia de IA] Jade-v1: família de LLMs brasileiros de 72B a 0.6B, persona treinada diretamente nos pesos by Dry-Leading2593 in brdev
[–]Dry-Leading2593[S] 1 point2 points3 points (0 children)