汽车英文缩写术语全解析与知识分享

版权申诉
0 下载量 29 浏览量 更新于2024-10-03 收藏 506KB ZIP 举报
资源摘要信息:"汽车术语英文缩写详解.pdf_文档整理可打印.zip" 由于文件的具体内容没有直接提供,但是从文件名称中我们可以得知,该资源主要涉及汽车领域的专业术语及其英文缩写。以下是对标题和描述中隐含知识点的详细说明: 1. 汽车术语英文缩写:在汽车行业中,为了方便交流和提高效率,许多专业术语都有相应的英文缩写。这些缩写可能涉及车辆的不同部分、技术参数、安全标准、生产流程、销售用语等方面。例如,ABS代表“防抱死制动系统(Anti-lock Braking System)”,AWD代表“全轮驱动(All-Wheel Drive)”,ESP代表“电子稳定程序(Electronic Stability Program)”等。 2. 详解:详细解释每一个术语及其缩写背后的含义,可以帮助读者更好地理解和记忆。这通常包括术语的全称、定义、在汽车领域的应用和重要性等。 3. 文档整理可打印:这份资源可能已经经过精心整理和格式化,便于读者打印出来作为手册或者资料进行学习和参考。 由于文件是压缩包格式,并且文件名称为“吃不胖.知识分享”,这表明文件可能包含了一系列的资料和资源,不仅仅限于汽车术语的英文缩写详解,也可能涉及健康、运动、饮食、生活方式等其他领域的知识分享。这些资源可能以文档、图片、表格等多种形式存在,方便不同需求的用户进行学习和分享。 整体来说,这个压缩包文件可能是一个包含丰富内容的资源整合文件,用户可以从中学到汽车专业知识,同时也可能扩展到其他生活和工作相关的知识点。通过分享计划,这个资源还能被更多人获取,有利于知识的传播和交流。 需要注意的是,为了确保获取的信息准确无误,用户在下载和使用这些资源时应当注意查看文件的更新日期和版本信息,以及确认资源的原创性和可靠性。如果文件中的内容涉及版权问题,应遵守相关法律法规,合理使用。

import jieba import torch from transformers import BertTokenizer, BertModel, BertConfig # 自定义词汇表路径 vocab_path = "output/user_vocab.txt" count = 0 with open(vocab_path, 'r', encoding='utf-8') as file: for line in file: count += 1 user_vocab = count print(user_vocab) # 种子词 seed_words = ['姓名'] # 加载微博文本数据 text_data = [] with open("output/weibo_data.txt", "r", encoding="utf-8") as f: for line in f: text_data.append(line.strip()) print(text_data) # 加载BERT分词器,并使用自定义词汇表 tokenizer = BertTokenizer.from_pretrained('bert-base-chinese', vocab_file=vocab_path) config = BertConfig.from_pretrained("bert-base-chinese", vocab_size=user_vocab) # 加载BERT模型 model = BertModel.from_pretrained('bert-base-chinese', config=config, ignore_mismatched_sizes=True) seed_tokens = ["[CLS]"] + seed_words + ["[SEP]"] seed_token_ids = tokenizer.convert_tokens_to_ids(seed_tokens) seed_segment_ids = [0] * len(seed_token_ids) # 转换为张量,调用BERT模型进行编码 seed_token_tensor = torch.tensor([seed_token_ids]) seed_segment_tensor = torch.tensor([seed_segment_ids]) model.eval() with torch.no_grad(): seed_outputs = model(seed_token_tensor, seed_segment_tensor) seed_encoded_layers = seed_outputs[0] jieba.load_userdict('data/user_dict.txt') # 构建隐私词库 privacy_words = set() privacy_words_sim = set() for text in text_data: words = jieba.lcut(text.strip()) tokens = ["[CLS]"] + words + ["[SEP]"] token_ids = tokenizer.convert_tokens_to_ids(tokens) segment_ids = [0] * len(token_ids) # 转换为张量,调用BERT模型进行编码 token_tensor = torch.tensor([token_ids]) segment_tensor = torch.tensor([segment_ids]) model.eval() with torch.no_grad(): outputs = model(token_tensor, segment_tensor) encoded_layers = outputs[0] # 对于每个词,计算它与种子词的余弦相似度 for i in range(1, len(tokens) - 1): word = tokens[i] if word in seed_words: continue if len(word) <= 1: continue sim_scores = [] for j in range(len(seed_encoded_layers)): sim_scores.append(torch.cosine_similarity(seed_encoded_layers[j][0], encoded_layers[j][i], dim=0).item()) cos_sim = sum(sim_scores) / len(sim_scores) print(cos_sim, word) if cos_sim >= 0.5: privacy_words.add(word) privacy_words_sim.add((word, cos_sim)) print(privacy_words) # 输出隐私词库 with open("output/privacy_words.txt", "w", encoding="utf-8") as f1: for word in privacy_words: f1.write(word + '\n') with open("output/privacy_words_sim.txt", "w", encoding="utf-8") as f2: for word, cos_sim in privacy_words_sim: f2.write(word + "\t" + str(cos_sim) + "\n") 详细解释上述代码,包括这行代码的作用以及为什么要这样做?

2023-06-08 上传