美国文化研究关键词指南

需积分: 9 1 下载量 60 浏览量 更新于2024-07-23 1 收藏 1.16MB PDF 举报
"《美国文化研究关键词》是一本专为大学二年级学生设计的英文写作教材,由Bruce Burgett和Glenn Hendler共同编纂。这本书旨在帮助读者更好地理解和掌握美国文化研究领域的核心词汇和概念,以便于在学术论文和讨论中精确表达思想。它涵盖了广泛的议题,包括但不限于美国文明、社会结构术语以及文化术语,旨在提供一个清晰而简明的指导框架。 该书结构严谨,不仅提供了丰富的关键词列表,还包含了详尽的注释和背景信息,使得非专业读者也能轻松理解复杂的学术概念。例如,书中可能讨论了如何区分和定义“主流文化”与“边缘文化”,“文化同质性”与“文化多元性”,或者“权力关系”在社会结构中的作用等关键概念。此外,书中可能会引用Anselm Kiefer的作品《Book with Wings》作为跨文化的视角示例,强调理论与实践的结合。 作者 Bruce Burgett 和 Glenn Hendler,作为纽约大学的学者,他们的学术背景无疑为本书的专业性和深度提供了保障。书中还包含了图书馆学信息,如美国国会图书馆的分类号和版权信息,以及关于纸张质量和印刷标准的说明,体现了出版社对质量的重视。 通过阅读这本书,学生不仅可以提升英文写作技巧,还能加深对美国文化深层次的理解,培养批判性思维和研究能力。对于想要进入或正在美国文化研究领域学习的学生来说,这是一本不可或缺的参考工具。"

根据错误:AttributeError: module 'networkx' has no attribute 'from_numpy_matrix',修改下述代码:import os import jieba.analyse from textrank4zh import TextRank4Keyword import concurrent.futures # 定义分块读取函数 def read_in_chunks(file_path, chunk_size=1024*1024): with open(file_path, 'r', encoding='utf-8') as f: while True: data = f.read(chunk_size) if not data: break yield data # 定义处理函数 def process_chunk(chunk): # 使用jieba分词提取关键词 jieba_keywords = jieba.analyse.extract_tags(chunk, topK=10, withWeight=True) # 使用textrank4zh提取关键词 tr4w = TextRank4Keyword() tr4w.analyze(chunk, lower=True, window=2) textrank_keywords = tr4w.get_keywords(10, word_min_len=2) # 合并两种方法提取的关键词 keywords = jieba_keywords + textrank_keywords return keywords # 读取文本文件,并按块处理 chunks = [] for chunk in read_in_chunks('input.txt'): chunks.append(chunk) # 多线程并行处理 results = [] with concurrent.futures.ThreadPoolExecutor() as executor: futures = [executor.submit(process_chunk, chunk) for chunk in chunks] for future in concurrent.futures.as_completed(futures): results.extend(future.result()) # 合并结果,并按权重降序排序 keywords = {} for keyword, weight in results: if keyword in keywords: keywords[keyword] += weight else: keywords[keyword] = weight keywords = sorted(keywords.items(), key=lambda x: x[1], reverse=True) keywords = [(keyword, weight) for keyword, weight in keywords if len(keyword) > 1][:10] # 输出到txt文件中 with open('output.txt', 'w', encoding='utf-8') as f: for keyword, weight in keywords: f.write(keyword + '\t' + str(weight) + '\n')

2023-06-03 上传