资源简介:
VILA-jp是由早稻田大学和国立情报学研究所等机构创建的日本视觉语言模型数据集。该数据集包含660万对日语图像-文本对和600万条交错数据,用于预训练和指令调优。数据集通过从网络档案中提取和本地化数据创建,确保了图像与文本之间的高度对齐。创建过程中使用了OpenCLIP和ImageHash等技术进行图像去重和NSFW过滤。VILA-jp主要应用于视觉语言任务,旨在解决非英语语言(如日语)在视觉语言模型中的资源匮乏问题,提升模型的区域本地化和文化理解能力。
原始地址:
https://huggingface.co/datasets/turing-motors/LLaVAv1.5-Instruct-620K-JA
提供机构:
早稻田大学, 东京科学研究所, 京都大学, 国立情报学研究所, NII LLMC