news 2026/4/16 12:51:17

使用 Node.js Elasticsearch 客户端索引大型 CSV 文件

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
使用 Node.js Elasticsearch 客户端索引大型 CSV 文件

作者:来自 Elastic joshmock

使用 bulk API 可以轻松地将大量文档索引到 Elasticsearch:将你的数据记录转换为 JSON 文档,并插入指示它们应该添加到哪个索引的指令,然后将这个大的换行分隔 JSON blob 作为请求体,通过单个 HTTP 请求发送到 Elasticsearch 集群。或者,使用 Node.js 客户端的 bulk 函数。

更多阅读:Elasticsearch:使用最新的 Nodejs client 8.x 来创建索引并搜索

下面演示如何读取 CSV 文件,将其行转换为 JSON 对象,并进行索引:

import { Client } from '@elastic/elasticsearch' import { parse } from "csv-parse/sync" import { readFileSync } from 'node:fs' const csv = parse(readFileSync('data.csv', 'utf8'), { columns: true }) const operations = csv.flatMap(row => [ { index: { _index: "my_index" } }, row ]) const client = new Client({ node: 'http://localhost:9200' }) await client.bulk({ operations })

但是,如果你需要发送的数据量超过 Elasticsearch 单次请求能接收的大小,或者你的 CSV 文件太大,无法一次性全部加载到内存中,该怎么办?这时可以使用 bulk helper!

虽然 bulk API 本身已经很简单,但对于更复杂的场景,helper 提供了对流式输入的支持,可以将大型数据集拆分为多个请求等。

例如,如果你的 Elasticsearch 服务器只能接收小于 10MB 的 HTTP 请求,你可以通过设置 flushBytes 值来指示 bulk helper 拆分数据。每当请求即将超过设置值时,就会发送一次 bulk 请求:

const csv = parse(readFileSync('data.csv', 'utf8'), { columns: true }) await client.helpers.bulk({ datasource: csv, onDocument(doc) { return { index: { _index: "my_index" } } }, // send a bulk request for every 9.5MB flushBytes: 9500000 })

或者,如果你的 CSV 文件太大无法一次性加载到内存中,helper 可以将流作为数据源,而不是使用数组:

import { createReadStream } from 'node:fs' import { parse } from 'csv-parse' const parser = parse({ columns: true }) await client.helpers.bulk({ datasource: createReadStream('data.csv').pipe(parser), onDocument(doc) { return { index: { _index: "my_index" } } } })

这会将 CSV 文件中的行缓冲到内存中,解析为 JSON 对象,并让 helper 将结果刷新为一个或多个 HTTP 请求发送出去。这个解决方案不仅节省内存,而且阅读起来也和将整个文件加载到内存中的方法一样简单!

原文:https://discuss.elastic.co/t/dec-9th-2025-en-use-the-node-js-elasticsearch-client-to-index-large-csv-files/382901

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/13 8:38:52

Linly-Talker在生日祝福视频中的亲友形象复刻

Linly-Talker:用一张照片唤醒亲人的声音与笑容 在某个特别的清晨,你打开手机相册,翻到那张泛黄的老照片——母亲年轻时的笑容依旧温暖。你想对她说点什么,却又知道再也无法拨通那个熟悉的号码。如果此刻,这张静态的照片…

作者头像 李华
网站建设 2026/4/16 12:22:30

Linly-Talker在热气球观光中的景点介绍

Linly-Talker在热气球观光中的景点介绍 你有没有想过,当热气球缓缓升空,脚下是连绵起伏的喀斯特山峦、蜿蜒如带的漓江水系,耳边传来一位“导游”的声音——语气亲切、语调自然,仿佛就是随行的专业讲解员,而实际上&…

作者头像 李华
网站建设 2026/4/15 11:59:33

如何将Open-AutoGLM请求吞吐量提升8倍?一线架构师实战复盘

第一章:Open-AutoGLM请求吞吐量提升的背景与挑战随着大模型在自然语言处理、代码生成和智能对话等场景中的广泛应用,系统对高并发请求处理能力的需求日益增长。Open-AutoGLM作为一款开源的自动推理生成语言模型框架,其核心目标是实现高效、稳…

作者头像 李华
网站建设 2026/4/5 11:28:00

Open-AutoGLM接口调用延迟高?3种高效优化方案立即生效

第一章:Open-AutoGLM接口调用延迟高?问题根源解析在使用 Open-AutoGLM 接口时,部分开发者反馈存在较高的响应延迟,影响了系统整体性能。该问题通常并非由单一因素导致,而是多个环节叠加所致。深入排查需从网络、模型推…

作者头像 李华
网站建设 2026/4/11 20:12:02

Linly-Talker在慢性病管理中的每日健康问候

Linly-Talker在慢性病管理中的每日健康问候 在高血压、糖尿病等慢性病患者的日常生活中,一个简单的“今天吃药了吗?”可能比任何复杂的医疗干预都更关键。然而,现实是:医生没有足够时间每天打电话随访每一位患者,家属…

作者头像 李华