[{"doc_count":170885,"key":"1"},{"doc_count":163649,"key":"2"},{"doc_count":57611,"key":"98"},{"doc_count":18951,"key":"0"},{"doc_count":2040,"key":"91"},{"doc_count":1690,"key":"96"},{"doc_count":39,"key":"99"},{"doc_count":27,"key":"3"}]这样的JSONArray,获取doc_count等于27有什么好办法

时间: 2023-07-02 17:18:25 浏览: 145
ZIP

Mongo_CheatSheet:Mongo Shell备忘单和快速入门指南

可以使用 Java 中的 JSON 库(如 FastJSON、Gson 等)来解析 JSONArray,然后遍历 JSONArray 中的元素,找到 doc_count 等于 27 的元素。 下面是用 FastJSON 实现的示例代码: ```java import com.alibaba.fastjson.JSONArray; import com.alibaba.fastjson.JSONObject; public class JsonArrayDemo { public static void main(String[] args) { String jsonStr = "[{\"doc_count\":170885,\"key\":\"1\"},{\"doc_count\":163649,\"key\":\"2\"},{\"doc_count\":57611,\"key\":\"98\"},{\"doc_count\":18951,\"key\":\"0\"},{\"doc_count\":2040,\"key\":\"91\"},{\"doc_count\":1690,\"key\":\"96\"},{\"doc_count\":39,\"key\":\"99\"},{\"doc_count\":27,\"key\":\"3\"}]"; JSONArray jsonArray = JSONArray.parseArray(jsonStr); for (int i = 0; i < jsonArray.size(); i++) { JSONObject jsonObject = jsonArray.getJSONObject(i); int docCount = jsonObject.getIntValue("doc_count"); if (docCount == 27) { System.out.println(jsonObject); } } } } ``` 在上面的代码中,我们首先将 JSON 字符串转换为 JSONArray 对象,然后遍历 JSONArray 中的每个元素。对于每个元素,我们将其转换为 JSONObject 对象,并通过 getIntValue() 方法获取 doc_count 的值。如果该值等于 27,我们就打印出这个 JSONObject 对象。 输出结果为: ``` {"doc_count":27,"key":"3"} ``` 可以看到,我们成功地找到了 doc_count 等于 27 的元素。
阅读全文

相关推荐

import jieba from collections import Counter def read_dataset(path): labels = [] inputs = [] with open(path, 'r', encoding='utf-8') as file: for i, line in enumerate(file): line = line.strip() sample = line.split('\t') inputs.append(sample[0]) labels.append(sample[1]) return inputs, labels class MyDataset(): def init(self) -> None: self.vocab = {} self.stop_words = [] def set_stopword(self, path='data/scu_stopwords'): with open(path, 'r', encoding='utf-8') as fr: self.stop_words = [line.strip() for line in fr.readline()] def build_vocab(self, inputs, max_size='5000', min_freg=1): cnt = {} # 临时词典存储词频 for data in inputs: data = jieba.lcut(data) for word in data: if word not in cnt: cnt[word] = 1 else: cnt[word] += 1 cnt = sorted([_ for _ in cnt.items() if _[1]>=min_freg and _[0] not in self.stop_words], key=lambda t:t[1], reverse=True) self.vocab[''] = 0 if len(cnt) > max_size: i = 1 for w, _ in cnt: if len(self.vocab)>max_size: break self.vocab[w] = i i += 1 else: i = 1 for w, _ in cnt: self.vocab[w] = i i += 1 def transform(self, inputs, flag = 0): samples = [] iter = 0 for doc in inputs: if iter % 1000 == 0: print('-------%d------' % iter) doc = jieba.cut(doc) if flag==0: wordset = set(doc) # print(wordset) sample = [] for word in self.vocab.keys(): if word in wordset: sample.append(1) else: sample.append(0) elif flag == 1: sample = [0 for i in range(len(self.vocab.items()))] word_count = Counter(doc) for word in word_count.items(): if word[0] in self.vocab.keys(): id = self.vocab[word[0]] sample[id] = word[1] iter +=1 samples.append(sample) return samples def buid_tfidf_vocab(self, inputs, max_size): pass试着调参重构,提升精确率

import re import asyncio from aiohttp import TCPConnector, ClientSession import pyecharts.options as opts from pyecharts.charts import TreeMap """ Gallery 使用 pyecharts 1.1.0 参考地址: https://echarts.apache.org/examples/editor.html?c=treemap-drill-down 目前无法实现的功能: 1、层级的样式配置 """ async def get_json_data(url: str) -> dict: async with ClientSession(connector=TCPConnector(ssl=False)) as session: async with session.get(url=url) as response: return await response.json() # 获取官方的数据 data = asyncio.run( get_json_data( url="https://echarts.apache.org/examples/data/asset/data/" "ec-option-doc-statistics-201604.json" ) ) tree_map_data: dict = {"children": []} def convert(source, target, base_path: str): for key in source: if base_path != "": path = base_path + "." + key else: path = key if re.match(r"/^\$/", key): pass else: child = {"name": path, "children": []} target["children"].append(child) if isinstance(source[key], dict): convert(source[key], child, path) else: target["value"] = source["$count"] convert(source=data, target=tree_map_data, base_path="") ( TreeMap(init_opts=opts.InitOpts(width="1200px", height="720px")) .add( series_name="option", data=tree_map_data["children"], visual_min=300, leaf_depth=1, # 标签居中为 position = "inside" label_opts=opts.LabelOpts(position="inside"), ) .set_global_opts( legend_opts=opts.LegendOpts(is_show=False), title_opts=opts.TitleOpts( title="Echarts 配置项查询分布", subtitle="2016/04", pos_left="leafDepth" ), ) .render("echarts_option_query.html") )

import jieba import math import re from collections import Counter # 读入两个txt文件存入s1,s2字符串中 s1 = open('1.txt', 'r').read() s2 = open('2.txt', 'r').read() # 利用jieba分词与停用词表,将词分好并保存到向量中 stopwords = [] fstop = open('stopwords.txt', 'r', encoding='utf-8') for eachWord in fstop: eachWord = re.sub("\n", "", eachWord) stopwords.append(eachWord) fstop.close() s1_cut = [i for i in jieba.cut(s1, cut_all=True) if (i not in stopwords) and i != ''] s2_cut = [i for i in jieba.cut(s2, cut_all=True) if (i not in stopwords) and i != ''] # 使用TF-IDF算法调整词频向量中每个词的权重 def get_tf_idf(word, cut_list, cut_code_list, doc_num): tf = cut_list.count(word) df = sum(1 for cut_code in cut_code_list if word in cut_code) idf = math.log(doc_num / df) return tf * idf word_set = list(set(s1_cut).union(set(s2_cut))) doc_num = 2 # 计算TF-IDF值并保存到向量中 s1_cut_tfidf = [get_tf_idf(word, s1_cut, [s1_cut, s2_cut], doc_num) for word in word_set] s2_cut_tfidf = [get_tf_idf(word, s2_cut, [s1_cut, s2_cut], doc_num) for word in word_set] # 获取TF-IDF值最高的前k个词 k = 10 s1_cut_topk = [word_set[i] for i in sorted(range(len(s1_cut_tfidf)), key=lambda x: s1_cut_tfidf[x], reverse=True)[:k]] s2_cut_topk = [word_set[i] for i in sorted(range(len(s2_cut_tfidf)), key=lambda x: s2_cut_tfidf[x], reverse=True)[:k]] # 使用前k个高频词的词频向量计算余弦相似度 s1_cut_code = [s1_cut.count(word) for word in s1_cut_topk] s2_cut_code = [s2_cut.count(word) for word in s2_cut_topk] sum = 0 sq1 = 0 sq2 = 0 for i in range(len(s1_cut_code)): sum += s1_cut_code[i] * s2_cut_code[i] sq1 += pow(s1_cut_code[i], 2) sq2 += pow(s2_cut_code[i], 2) try: result = round(float(sum) / (math.sqrt(sq1) * math.sqrt(sq2)), 3) except ZeroDivisionError: result = 0.0 print("\n余弦相似度为:%f" % result)

最新推荐

recommend-type

微软内部资料-SQL性能优化5

Lesson 2: Concepts – Statistics 29 Lesson 3: Concepts – Query Optimization 37 Lesson 4: Information Collection and Analysis 61 Lesson 5: Formulating and Implementing Resolution 75 Module 6: ...
recommend-type

setting.xml文件,修改Maven仓库指向至阿里仓

setting.xml文件,修改Maven仓库指向至阿里仓
recommend-type

Chrome ESLint扩展:实时运行ESLint于网页脚本

资源摘要信息:"chrome-eslint:Chrome扩展程序可在当前网页上运行ESLint" 知识点: 1. Chrome扩展程序介绍: Chrome扩展程序是一种为Google Chrome浏览器添加新功能的小型软件包,它们可以增强或修改浏览器的功能。Chrome扩展程序可以用来个性化和定制浏览器,从而提高工作效率和浏览体验。 2. ESLint功能及应用场景: ESLint是一个开源的JavaScript代码质量检查工具,它能够帮助开发者在开发过程中就发现代码中的语法错误、潜在问题以及不符合编码规范的部分。它通过读取代码文件来检测错误,并根据配置的规则进行分析,从而帮助开发者维护统一的代码风格和避免常见的编程错误。 3. 部署后的JavaScript代码问题: 在将JavaScript代码部署到生产环境后,可能存在一些代码是开发过程中未被检测到的,例如通过第三方服务引入的脚本。这些问题可能在开发环境中未被发现,只有在用户实际访问网站时才会暴露出来,例如第三方脚本的冲突、安全性问题等。 4. 为什么需要在已部署页面运行ESLint: 在已部署的页面上运行ESLint可以发现那些在开发过程中未被捕捉到的JavaScript代码问题。它可以帮助开发者识别与第三方脚本相关的问题,比如全局变量冲突、脚本执行错误等。这对于解决生产环境中的问题非常有帮助。 5. Chrome ESLint扩展程序工作原理: Chrome ESLint扩展程序能够在当前网页的所有脚本上运行ESLint检查。通过这种方式,开发者可以在实际的生产环境中快速识别出可能存在的问题,而无需等待用户报告或使用其他诊断工具。 6. 扩展程序安装与使用: 尽管Chrome ESLint扩展程序尚未发布到Chrome网上应用店,但有经验的用户可以通过加载未打包的扩展程序的方式自行安装。这需要用户从GitHub等平台下载扩展程序的源代码,然后在Chrome浏览器中手动加载。 7. 扩展程序的局限性: 由于扩展程序运行在用户的浏览器端,因此它的功能可能受限于浏览器的执行环境。它可能无法访问某些浏览器API或运行某些特定类型的代码检查。 8. 调试生产问题: 通过使用Chrome ESLint扩展程序,开发者可以有效地调试生产环境中的问题。尤其是在处理复杂的全局变量冲突或脚本执行问题时,可以快速定位问题脚本并分析其可能的错误源头。 9. JavaScript代码优化: 扩展程序不仅有助于发现错误,还可以帮助开发者理解页面上所有JavaScript代码之间的关系。这有助于开发者优化代码结构,提升页面性能,确保代码质量。 10. 社区贡献: Chrome ESLint扩展程序的开发和维护可能是一个开源项目,这意味着整个开发社区可以为其贡献代码、修复bug和添加新功能。这对于保持扩展程序的活跃和相关性是至关重要的。 通过以上知识点,我们可以深入理解Chrome ESLint扩展程序的作用和重要性,以及它如何帮助开发者在生产环境中进行JavaScript代码的质量保证和问题调试。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

精确率与召回率的黄金法则:如何在算法设计中找到最佳平衡点

![精确率与召回率的黄金法则:如何在算法设计中找到最佳平衡点](http://8411330.s21i.faiusr.com/4/ABUIABAEGAAg75zR9gUo_MnlwgUwhAc4-wI.png) # 1. 精确率与召回率的基本概念 在信息技术领域,特别是在机器学习和数据分析的语境下,精确率(Precision)和召回率(Recall)是两个核心的评估指标。精确率衡量的是模型预测为正的样本中实际为正的比例,而召回率衡量的是实际为正的样本被模型正确预测为正的比例。理解这两个概念对于构建有效且准确的预测模型至关重要。为了深入理解精确率与召回率,在本章节中,我们将先从这两个概念的定义
recommend-type

在嵌入式系统中,如何确保EFS高效地管理Flash和ROM存储器,并向应用程序提供稳定可靠的接口?

为了确保嵌入式文件系统(EFS)高效地管理Flash和ROM存储器,同时向应用程序提供稳定可靠的接口,以下是一些关键技术和实践方法。 参考资源链接:[嵌入式文件系统:EFS在Flash和ROM中的可靠存储应用](https://wenku.csdn.net/doc/87noux71g0?spm=1055.2569.3001.10343) 首先,EFS需要设计为一个分层结构,其中包含应用程序接口(API)、本地设备接口(LDI)和非易失性存储器(NVM)层。NVM层负责处理与底层存储介质相关的所有操作,包括读、写、擦除等,以确保数据在断电后仍然能够被保留。 其次,EFS应该提供同步和异步两
recommend-type

基于 Webhook 的 redux 预处理器实现教程

资源摘要信息: "nathos-wh:*** 的基于 Webhook 的 redux" 知识点: 1. Webhook 基础概念 Webhook 是一种允许应用程序提供实时信息给其他应用程序的方式。它是一种基于HTTP回调的简单技术,允许一个应用在特定事件发生时,通过HTTP POST请求实时通知另一个应用,从而实现两个应用之间的解耦和自动化的数据交换。在本主题中,Webhook 用于触发服务器端的预处理操作。 2. Grunt 工具介绍 Grunt 是一个基于Node.js的自动化工具,主要用于自动化重复性的任务,如编译、测试、压缩文件等。通过定义Grunt任务和配置文件,开发者可以自动化执行各种操作,提高开发效率和维护便捷性。 3. Node 模块及其安装 Node.js 是一个基于Chrome V8引擎的JavaScript运行环境,它允许开发者使用JavaScript来编写服务器端代码。Node 模块是Node.js的扩展包,可以通过npm(Node.js的包管理器)进行安装。在本主题中,通过npm安装了用于预处理Sass、Less和Coffescript文件的Node模块。 4. Sass、Less 和 Coffescript 文件预处理 Sass、Less 和 Coffescript 是前端开发中常用的预处理器语言。Sass和Less是CSS预处理器,它们扩展了CSS的功能,例如变量、嵌套规则、混合等,使得CSS编写更加方便、高效。Coffescript则是一种JavaScript预处理语言,它提供了更为简洁的语法和一些编程上的便利特性。 5. 服务器端预处理操作触发 在本主题中,Webhook 被用来触发服务器端的预处理操作。当Webhook被设置的事件触发后,它会向服务器发送一个HTTP POST请求。服务器端的监听程序接收到请求后,会执行相应的Grunt任务,进行Sass、Less和Coffescript的编译转换工作。 6. Grunt 文件配置 Grunt 文件(通常命名为Gruntfile.js)是Grunt任务的配置文件。它定义了任务和任务运行时的配置,允许开发者自定义要执行的任务以及执行这些任务时的参数。在本主题中,Grunt文件被用来配置预处理任务。 7. 服务器重启与 Watch 命令 为了确保Webhook触发的预处理命令能够正确执行,需要在安装完所需的Node模块后重新启动Webhook运行服务器。Watch命令是Grunt的一个任务,可以监控文件的变化,并在检测到变化时执行预设的任务,如重新编译Sass、Less和Coffescript文件。 总结来说,nathos-wh主题通过搭建Grunt环境并安装特定的Node模块,实现了Sass、Less和Coffescript文件的实时预处理。这使得Web开发人员可以在本地开发时享受到更高效、自动化的工作流程,并通过Webhook与服务器端的交互实现实时的自动构建功能。这对于提高前端开发的效率和准确性非常关键,同时也体现了现代Web开发中自动化工具与实时服务整合的趋势。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

精确率的终极指南:提升机器学习模型性能的10个实战技巧

![精确率的终极指南:提升机器学习模型性能的10个实战技巧](https://simg.baai.ac.cn/hub-detail/3f683a65af53da3a2ee77bd610ede1721693616617367.webp) # 1. 机器学习模型性能的度量与挑战 机器学习模型的性能度量与优化是开发健壮和可靠系统的基石。在评估模型的准确性时,传统的度量指标如准确率、召回率和F1分数已经不能满足需求,特别是当数据集不平衡或存在类别重叠时。这要求我们深入理解各种性能指标的内在含义和适用场景。 ## 1.1 模型性能的多种度量指标 准确率是指模型正确预测的样本数占总样本数的比例,但当
recommend-type

在嵌入式系统中,如何设计一个支持高效持久化存储的文件系统,并为应用程序提供稳定可靠的接口?

为了在嵌入式系统中实现文件系统的高效持久化存储以及提供可靠的接口给应用程序,我们可以借鉴《嵌入式文件系统:EFS在Flash和ROM中的可靠存储应用》中的相关知识。EFS(嵌入式文件系统)在设计时采用了分层架构,提供了设备无关的接口,同时考虑到性能和资源的高效利用。 参考资源链接:[嵌入式文件系统:EFS在Flash和ROM中的可靠存储应用](https://wenku.csdn.net/doc/87noux71g0?spm=1055.2569.3001.10343) 首先,EFS需要支持对Flash和ROM这类非易失性存储器(NVM)的高效操作。Flash memory由于其擦写次数有限