hdfs的shell命令

时间: 2023-04-28 08:01:30 浏览: 31
HDFS (Hadoop Distributed File System) 是 Hadoop 的分布式文件系统。它可以使用 shell 命令来管理和操作 HDFS 上的文件和目录。 常用的 HDFS shell 命令包括: - hadoop fs -ls: 列出 HDFS 上指定目录中的文件和目录。 - hadoop fs -mkdir: 创建 HDFS 上的目录。 - hadoop fs -put: 上传本地文件到 HDFS。 - hadoop fs -get: 下载 HDFS 上的文件到本地。 - hadoop fs -rm: 删除 HDFS 上的文件或目录。 - hadoop fs -mv: 移动或重命名 HDFS 上的文件或目录。 - hadoop fs -du: 显示 HDFS 上文件或目录的大小。 使用时只需要在命令前加入“hadoop fs”即可。 例如: 在HDFS上创建目录: hadoop fs -mkdir /user/test 上传文件到HDFS: hadoop fs -put local_file.txt /user/test 查看HDFS上文件夹里的文件: hadoop fs -ls /user/test
相关问题

hdfs shell命令

### 回答1: HDFS Shell是Hadoop分布式文件系统(HDFS)的命令行接口。以下是一些HDFS Shell命令的例子: 1. 查看HDFS文件系统的根目录: ``` hadoop fs -ls / ``` 2. 在HDFS文件系统中创建一个目录: ``` hadoop fs -mkdir /mydirectory ``` 3. 将本地文件上传到HDFS文件系统中的目录中: ``` hadoop fs -put /local/path/to/file /hdfs/path/to/directory ``` 4. 从HDFS文件系统中下载文件到本地: ``` hadoop fs -get /hdfs/path/to/file /local/path/to/file ``` 5. 删除HDFS文件系统中的文件或目录: ``` hadoop fs -rm /hdfs/path/to/file hadoop fs -rm -r /hdfs/path/to/directory ``` 6. 在HDFS文件系统中复制文件或目录: ``` hadoop fs -cp /hdfs/path/to/source /hdfs/path/to/destination ``` 7. 查看HDFS文件系统中文件或目录的内容: ``` hadoop fs -cat /hdfs/path/to/file hadoop fs -tail /hdfs/path/to/file ``` 以上只是一些常用的HDFS Shell命令,还有许多其他命令可以使用。 ### 回答2: HDFS Shell命令是在Hadoop分布式文件系统(HDFS)中使用的命令行界面工具。它提供了一种方便直接访问和操作HDFS的方法,可以在终端或命令行中执行。 HDFS Shell命令通常以"hadoop fs"或"hdfs dfs"作为前缀,后跟具体的命令和参数。它们可以用于创建、复制、删除、移动和查看文件和目录等操作。 以下是一些常用的HDFS Shell命令及其功能: - "ls":列出指定路径下的所有文件和目录。 - "mkdir":创建一个新的目录。 - "copyFromLocal":从本地文件系统复制文件到HDFS。 - "copyToLocal":将HDFS上的文件复制到本地文件系统。 - "mv":移动或重命名文件或目录。 - "rm":删除指定的文件或目录。 - "cat":显示文件的内容。 - "put":将本地文件复制到指定路径下。 - "get":将指定路径下的文件复制到本地文件系统。 - "chmod":更改文件或目录的权限。 - "chown":更改文件或目录的所有者。 - "chgrp":更改文件或目录的组。 - "du":显示指定路径下的文件和目录的大小。 HDFS Shell命令是Hadoop生态系统中重要的一部分,可以方便地进行文件系统的操作。它也可以与其他Hadoop工具和组件集成,如MapReduce、Hive和Spark等,来进行更复杂的数据处理和分析工作。

hdfsshell命令操作

hdfsshell命令是Hadoop分布式文件系统(HDFS)的一个命令行工具,用于管理HDFS文件系统。它可以用于创建、删除、移动、复制、上传和下载文件,以及查看文件和目录的属性等操作。此外,hdfsshell还支持一些高级功能,如设置文件权限、修改文件副本数、合并文件等。

相关推荐

### 回答1: 1. hdfs dfs -ls:列出HDFS上的文件和目录 2. hdfs dfs -mkdir:创建一个新目录 3. hdfs dfs -put:将本地文件上传到HDFS 4. hdfs dfs -get:将HDFS上的文件下载到本地 5. hdfs dfs -rm:删除HDFS上的文件或目录 6. hdfs dfs -mv:移动HDFS上的文件或目录 7. hdfs dfs -cp:复制HDFS上的文件或目录 8. hdfs dfs -cat:查看HDFS上的文件内容 9. hdfs dfs -tail:查看HDFS上文件的末尾内容 10. hdfs dfs -du:查看HDFS上文件或目录的大小 ### 回答2: HDFS(Hadoop分布式文件系统)是一个可扩展性高、容错性强、高吞吐量的分布式文件系统,常用于存储和管理大数据,支持并行处理和海量数据访问。 HDFS提供了一些常用的Shell命令,可以在终端中很方便地操作HDFS文件系统。 1. hadoop fs -ls /path:此命令用于列出指定路径下的文件(目录)信息,包括文件(目录)名称、大小、权限、所属用户和组等相关信息。 2. hadoop fs -mkdir /path:此命令用于创建一个目录或多个目录,可以在命令后添加多个目录路径,以逗号分隔。 3. hadoop fs -put localfile /path:此命令用于将本地文件或目录上传到HDFS中指定的路径下,可以上传一个文件或多个文件。 4. hadoop fs -get /path localfile:此命令用于将HDFS路径下的文件或目录下载到本地文件系统中指定的路径下。 5. hadoop fs -rm /path:此命令用于删除HDFS路径下的文件或目录,可以删除一个文件或多个文件,也可以通过-r选项递归删除目录及其下面的所有文件和目录。 6. hadoop fs -cat /path:此命令用于输出HDFS路径下的文件内容,常用于查看文件的内容。 7. hadoop fs -du /path:此命令用于查看HDFS路径下文件或目录的大小,以字节计算。 8. hadoop fs -cp /src /dst:此命令用于将一个文件或目录从源路径复制到目标路径,可以同时复制一个文件或多个文件,也可以复制目录。 以上是HDFS常用的一些Shell命令,操作简单方便,可以有效地管理和维护HDFS文件系统。 ### 回答3: HDFS(分布式文件系统)是一种用于处理大型数据集的可扩展性存储解决方案。它的设计重点是不同的容错机制,能够处理大量数据并保证其可靠性。在HDFS中,常用的控制命令是Hadoop Shell命令。以下是HDFS中常用的Shell命令: 1. hadoop fs -ls [/path]:用于列出HDFS文件系统中指定路径下的所有文件和目录。 2. hadoop fs -mkdir [/path]:用于创建目录。如果目录路径已经存在,则无法创建。 3. hadoop fs -rmr [/path]:用于删除指定路径下的所有文件和目录。使用该命令要非常小心,因为它会直接删除目录及其下所有内容。 4. hadoop fs -put [local path] [HDFS path]:用于将本地文件复制到HDFS上。 5. hadoop fs -get [HDFS path] [local path]:与put命令相反,将HDFS文件复制到本地。 6. hadoop fs -cat [HDFS file path]:用于查看文件的内容。 7. hadoop fs -chgrp [group] [file/dir]:用于更改文件或目录的一组用户组。 8. hadoop fs -chmod [mode] [file/dir]:用于更改文件或目录的权限。 9. hadoop fs -chown [user] [file/dir]:用于更改文件或目录的所有者。 10. hadoop fs -du [/path]:用于计算一个给定目录的磁盘使用情况。 以上是Hadoop文件系统中常用的Shell命令。这些命令可以帮助用户管理文件和目录,进行权限更改,查看内容等。理解和掌握这些命令是Hadoop分布式文件系统管理的关键。
### 回答1: 1. hdfs dfs -ls:列出HDFS上的文件和目录 2. hdfs dfs -mkdir:创建一个新的目录 3. hdfs dfs -put:将本地文件上传到HDFS 4. hdfs dfs -get:将HDFS上的文件下载到本地 5. hdfs dfs -rm:删除HDFS上的文件或目录 6. hdfs dfs -mv:移动HDFS上的文件或目录 7. hdfs dfs -cp:复制HDFS上的文件或目录 8. hdfs dfs -cat:查看HDFS上的文件内容 9. hdfs dfs -tail:查看HDFS上文件的末尾内容 10. hdfs dfs -du:查看HDFS上文件或目录的大小 ### 回答2: HDFS是一个高可靠性、高扩展性的分布式文件系统,它最大限度地支持了大规模数据的处理。在进行HDFS操作时,shell命令是我们最常用的一种方式。以下是HDFS操作常用的shell命令: 1. hdfs dfs -ls:该命令用于列出给定路径下的文件或目录。可以通过参数 -h 以人类可读的方式显示文件大小。 2. hdfs dfs -mkdir:该命令用于在HDFS上创建一个目录。使用-h参数可以递归地创建目录树。 3. hdfs dfs -put:该命令用于将本地文件或文件夹上传到HDFS上。使用-r参数可以上传整个目录。 4. hdfs dfs -get:该命令用于将HDFS上的文件或目录下载到本地文件系统中。使用-r参数可以下载整个目录。 5. hdfs dfs -rm:该命令用于删除HDFS上的文件或目录。使用-r参数可以递归删除目录及其子目录。 6. hdfs dfs -mv:该命令用于在HDFS上移动或重命名文件或目录。 7. hdfs dfs -copyFromLocal:该命令用于将本地文件复制到HDFS上。使用-r参数可以复制整个目录。 8. hdfs dfs -copyToLocal:该命令用于将HDFS上的文件复制到本地文件系统中。使用-r参数可以复制整个目录。 9. hdfs dfs -cat:该命令用于查看HDFS上的文件内容。可以将其输出到控制台或重定向到其他文件。 10. hdfs dfs -du:该命令用于计算HDFS上文件或目录的磁盘空间使用情况。使用-h参数以人类可读的方式显示文件大小。 11. hdfs dfs -chmod:该命令用于更改HDFS上文件或目录的权限。可以使用数字或符号模式来定义权限。 12. hdfs dfs -chown:该命令用于更改文件或目录的所属用户和组。可以通过参数R递归更改目录下的所有文件或目录。 以上是HDFS操作中常用的一些shell命令,使用这些命令可以方便地对HDFS上的文件或目录进行管理和操作。 ### 回答3: HDFS是Hadoop分布式文件系统,是由一组连接在一起的计算机节点通过网络形成的文件系统,适合存储大数据及高并发场景。HDFS操作常用的shell命令是很多的,下面笔者分别介绍几个常用的HDFS操作命令。 1. ls命令 ls命令用于查看HDFS中指定目录下的文件和目录信息,使用方式与Linux系统下的ls命令相同。 hdfs dfs -ls [path] 示例:hdfs dfs -ls /user/hadoop 2. mkdir命令 mkdir命令用于在HDFS中创建一个新目录。 hdfs dfs -mkdir [path] 示例:hdfs dfs -mkdir /user/hadoop/test 3. put命令 put命令用于把指定的本地文件上传到HDFS中指定的目录下。 hdfs dfs -put [localsrc] [dst] 示例:hdfs dfs -put /home/hadoop/data.txt /user/hadoop/test 4. get命令 get命令用于把HDFS中指定的文件下载到本地指定的目录中。 hdfs dfs -get [src] [localdst] 示例:hdfs dfs -get /user/hadoop/test/data.txt /home/hadoop/local-data 5. cat命令 cat命令用于打印HDFS中指定文件的内容。 hdfs dfs -cat [path] 示例:hdfs dfs -cat /user/hadoop/test/data.txt 6. rm命令 rm命令用于删除HDFS中指定的文件或目录。 hdfs dfs -rm [-R] [path] 示例:hdfs dfs -rm /user/hadoop/test/data.txt 7. cp命令 cp命令用于将HDFS中指定的文件或目录复制到指定目录中。 hdfs dfs -cp [src] [dst] 示例:hdfs dfs -cp /user/hadoop/test/data.txt /user/hadoop/test2 8. du命令 du命令用于统计HDFS中指定目录的大小信息。 hdfs dfs -du [path] 示例:hdfs dfs -du /user/hadoop/test 综合来看,以上是HDFS操作常用的shell命令,能够快速实现对HDFS文件进行管理和操作,同时也能有效提高Hadoop的运维效率。
HDFS(Hadoop分布式文件系统)是Hadoop生态系统的一部分,使用HDFS可以在分布式环境下存储大规模数据集。HDFS系统shell应用实验是通过使用HDFS系统的命令行工具来操作和管理HDFS文件系统。 首先,我们可以使用"hadoop fs"命令来执行HDFS系统的常见操作。例如,使用"hadoop fs -ls"命令可以列出HDFS上的所有文件和目录。使用"hadoop fs -mkdir"命令可以创建新目录,而使用"hadoop fs -rm"命令可以删除目录或文件。 另外,HDFS系统shell应用也支持文件的上传和下载。通过使用"hadoop fs -put"命令,我们可以将本地计算机上的文件上传到HDFS系统中。而使用"hadoop fs -get"命令,则可以将HDFS系统中的文件下载到本地计算机。 除了基本的文件操作,HDFS系统shell应用还支持对文件内容的查看和编辑。使用"hadoop fs -cat"命令可以查看文件的内容,同时通过使用"hadoop fs -appendToFile"命令可以向文件追加内容。 另外,HDFS系统shell应用还提供了一些高级的功能,例如通过使用命令"hadoop fs -setrep"可以修改文件的副本数。而使用"hadoop fs -expunge"命令,则可以清除HDFS系统中的垃圾数据。 总之,HDFS系统shell应用实验是通过使用HDFS系统的命令行工具来进行文件管理和操作的实验。通过掌握这些命令,我们可以灵活地管理HDFS系统中的文件和目录,并进行文件的上传、下载、查看和编辑等操作。这对于在大规模数据处理和分析中使用Hadoop和HDFS系统非常重要。
### 回答1: 以下是Hadoop Shell命令大全: 1. hadoop fs -ls:列出HDFS上的文件和目录 2. hadoop fs -mkdir:创建一个新目录 3. hadoop fs -put:将本地文件上传到HDFS 4. hadoop fs -get:从HDFS下载文件到本地 5. hadoop fs -rm:删除HDFS上的文件或目录 6. hadoop fs -cat:查看HDFS上的文件内容 7. hadoop fs -tail:查看HDFS上文件的末尾内容 8. hadoop fs -du:查看HDFS上文件或目录的大小 9. hadoop fs -chmod:更改HDFS上文件或目录的权限 10. hadoop fs -chown:更改HDFS上文件或目录的所有者 11. hadoop fs -chgrp:更改HDFS上文件或目录的所属组 12. hadoop fs -touchz:在HDFS上创建一个空文件 13. hadoop fs -count:统计HDFS上文件或目录的数量和大小 14. hadoop fs -mv:移动HDFS上的文件或目录 15. hadoop fs -cp:复制HDFS上的文件或目录 16. hadoop fs -setrep:更改HDFS上文件或目录的副本数 17. hadoop fs -test:检查HDFS上文件或目录的存在性 18. hadoop fs -expunge:清空HDFS上的回收站 19. hadoop fs -lsr:递归列出HDFS上的文件和目录 20. hadoop fs -checksum:计算HDFS上文件的校验和 希望这些命令能够帮助您更好地使用Hadoop Shell。 ### 回答2: Hadoop是一个开源的分布式处理框架,主要用于处理大规模数据的存储和计算。Hadoop Shell是操作Hadoop集群的命令行工具,它提供了一系列的命令,可以用于管理Hadoop集群、查看HDFS文件系统等操作。下面是Hadoop Shell命令的详细介绍。 1. hdfs命令 hdfs命令可以用于管理HDFS文件系统,包括查看文件、创建文件、删除文件等操作。常用的hdfs命令有: - ls:查看HDFS文件系统的文件列表。 - mkdir:创建HDFS文件系统的目录。 - copyFromLocal:将本地文件复制到HDFS文件系统中。 - copyToLocal:将HDFS文件系统的文件复制到本地。 - rm:删除HDFS文件系统中的文件。 - chmod:修改HDFS文件系统中文件的权限。 - chown:修改HDFS文件系统中文件的所有者。 - cat:查看HDFS文件系统中文件的内容。 2. mapred命令 mapred命令可以用于管理MapReduce作业,包括提交作业、查看作业状态等操作。常用的mapred命令有: - job:查看MapReduce作业的状态。 - jobqueue:查看作业队列的状态。 - jobhistory:查看作业历史记录。 - jobkill:终止运行中的MapReduce作业。 3. dfsadmin命令 dfsadmin命令用于管理HDFS的集群,包括查看HDFS集群的状态、添加或删除节点、重新加载配置等操作。常用的dfsadmin命令有: - report:查看HDFS集群的状态。 - safemode:进入或退出安全模式。 - setSafeMode:设置安全模式阈值。 - refreshNodes:刷新HDFS集群的节点列表。 4. fsck命令 fsck命令可以用于检查HDFS文件系统的完整性和一致性。常用的fsck命令有: - fsck:检查HDFS文件系统的状态。 - list-corruptfileblocks:列出不完整的文件块。 以上就是Hadoop Shell命令的简要介绍,这些命令可以帮助用户管理Hadoop集群、操作HDFS文件系统、管理MapReduce作业等。在实际应用中,还可以结合其他工具,如Pig、Hive、Hadoop Streaming等,来处理大规模数据。 ### 回答3: Hadoopshell是Hadoop的命令行工具,可以与Hadoop进行交互。 Hadoopshell命令大全包括以下内容: 1. hdfs dfs -ls : 显示HDFS中指定路径的文件和目录列表。 2. hdfs dfs -mkdir:在HDFS中创建一个新目录。 3. hdfs dfs -put:将本地文件或目录复制到HDFS中。 4. hdfs dfs -get:将HDFS中的文件或目录复制到本地。 5. hdfs dfs -copyFromLocal:将本地文件/目录复制到HDFS中。 6. hdfs dfs -copyToLocal:将HDFS文件/目录复制到本地。 7. hdfs dfs -cp:在HDFS之间复制文件。 8. hdfs dfs -mv:在HDFS中移动文件或目录。 9. hdfs dfs -rm:从HDFS中删除指定的文件或目录。 10. hdfs dfs -du:列出指定目录或文件的大小。 11. hdfs dfs -touchz:在HDFS中创建一个空文件。 12. hdfs dfs -tail:显示HDFS中指定文件的最后几行。 13. hdfs dfs -stat:显示HDFS中指定文件/目录的详细信息。 14. hdfs dfs -chmod:改变HDFS文件/目录的权限。 15. hdfs dfs -chgrp:改变HDFS文件/目录的所属组。 16. hdfs dfs -chown:改变HDFS文件/目录的所属用户。 17. hdfs dfs -count:显示HDFS中指定目录的文件和目录的数量。 18. hdfs dfs -checksum:计算HDFS中指定文件的校验和。 19. hdfs dfs -lsr:递归显示HDFS中指定目录中的所有文件和目录。 20. hdfs dfs -expunge:清除HDFS回收站。 21. hdfs dfs -moveFromLocal:将本地文件移动到HDFS中。 22. hdfs dfs -moveToLocal:将HDFS文件移动到本地。 23. hdfs dfs -tail:显示指定文件的最后几行。 以上是Hadoopshell命令大全,这些命令可以帮助用户管理Hadoop分布式文件系统,并允许他们在Hadoop中进行基本的文件和目录操作。对于Hadoop管理员和Hadoop开发人员来说,Hadoopshell命令是非常有用的工具,在日常工作中可以帮助他们更好地管理和维护Hadoop集群。

最新推荐

新零售数字营销总体设计方案.pptx

新零售数字营销总体设计方案.pptx

baiduwenku_AndroidPhone_v8.2.76_8.2.760__1027470h.apk

baiduwenku_AndroidPhone_v8.2.76_8.2.760__1027470h.apk

JDK- jdk1.8.0-211.zip

JDK- jdk1.8.0-211.zip

代码随想录最新第三版-最强八股文

这份PDF就是最强⼋股⽂! 1. C++ C++基础、C++ STL、C++泛型编程、C++11新特性、《Effective STL》 2. Java Java基础、Java内存模型、Java面向对象、Java集合体系、接口、Lambda表达式、类加载机制、内部类、代理类、Java并发、JVM、Java后端编译、Spring 3. Go defer底层原理、goroutine、select实现机制 4. 算法学习 数组、链表、回溯算法、贪心算法、动态规划、二叉树、排序算法、数据结构 5. 计算机基础 操作系统、数据库、计算机网络、设计模式、Linux、计算机系统 6. 前端学习 浏览器、JavaScript、CSS、HTML、React、VUE 7. 面经分享 字节、美团Java面、百度、京东、暑期实习...... 8. 编程常识 9. 问答精华 10.总结与经验分享 ......

无监督视觉表示学习中的时态知识一致性算法

无监督视觉表示学习中的时态知识一致性维信丰酒店1* 元江王2*†马丽华2叶远2张驰2北京邮电大学1旷视科技2网址:fengweixin@bupt.edu.cn,wangyuanjiang@megvii.com{malihua,yuanye,zhangchi} @ megvii.com摘要实例判别范式在无监督学习中已成为它通常采用教师-学生框架,教师提供嵌入式知识作为对学生的监督信号。学生学习有意义的表征,通过加强立场的空间一致性与教师的意见。然而,在不同的训练阶段,教师的输出可以在相同的实例中显著变化,引入意外的噪声,并导致由不一致的目标引起的灾难性的本文首先将实例时态一致性问题融入到现有的实例判别范式中 , 提 出 了 一 种 新 的 时 态 知 识 一 致 性 算 法 TKC(Temporal Knowledge Consis- tency)。具体来说,我们的TKC动态地集成的知识的时间教师和自适应地选择有用的信息,根据其重要性学习实例的时间一致性。

create or replace procedure这句语句后面是自定义么

### 回答1: 是的,"create or replace procedure"语句后面应该跟着自定义的存储过程名。例如: ```sql create or replace procedure my_procedure_name ``` 这里"my_procedure_name"是你自己定义的存储过程名,可以根据具体需求进行命名。 ### 回答2: 不完全是自定义。在Oracle数据库中,"CREATE OR REPLACE PROCEDURE"是一条SQL语句,用于创建或替换一个存储过程。关键词"CREATE"表示创建新的存储过程,关键词"OR REPLACE"表示如果该存储过程

数据结构1800试题.pdf

你还在苦苦寻找数据结构的题目吗?这里刚刚上传了一份数据结构共1800道试题,轻松解决期末挂科的难题。不信?你下载看看,这里是纯题目,你下载了再来私信我答案。按数据结构教材分章节,每一章节都有选择题、或有判断题、填空题、算法设计题及应用题,题型丰富多样,共五种类型题目。本学期已过去一半,相信你数据结构叶已经学得差不多了,是时候拿题来练练手了,如果你考研,更需要这份1800道题来巩固自己的基础及攻克重点难点。现在下载,不早不晚,越往后拖,越到后面,你身边的人就越卷,甚至卷得达到你无法想象的程度。我也是曾经遇到过这样的人,学习,练题,就要趁现在,不然到时你都不知道要刷数据结构题好还是高数、工数、大英,或是算法题?学完理论要及时巩固知识内容才是王道!记住!!!下载了来要答案(v:zywcv1220)。

基于对比检测的高效视觉预训练

10086⇥⇥⇥⇥基于对比检测的高效视觉预训练Ol i vierJ. He´naf f SkandaKoppula Jean-BaptisteAlayracAaronvandenOord OriolVin yals JoaoCarreiraDeepMind,英国摘要自我监督预训练已被证明可以为迁移学习提供然而,这些性能增益是以大的计算成本来实现的,其中最先进的方法需要比监督预训练多一个数量级的计算。我们通过引入一种新的自监督目标,对比检测,任务表示与识别对象级功能跨增强来解决这个计算瓶颈。该目标可提取每幅图像的丰富学习信号,从而在各种下游任务上实现最先进的传输精度,同时需要高达10少训练特别是,我们最强的ImageNet预训练模型的性能与SEER相当,SEER是迄今为止最大的自监督系统之一,它使用了1000多个预训练数据。最后,我们的目标无缝地处理更复杂图像的预训练,例如COCO中的图像,缩小了从COCO到PASCAL的监督迁移学习的差距1. 介绍自从Al

java 两个List<Integer> 数据高速去重

### 回答1: 可以使用 Set 来高效去重,具体代码如下: ```java List<Integer> list1 = new ArrayList<>(); List<Integer> list2 = new ArrayList<>(); // 假设 list1 和 list2 已经被填充了数据 Set<Integer> set = new HashSet<>(); set.addAll(list1); set.addAll(list2); List<Integer> resultList = new ArrayList<>(set); ``` 这样可以将两个 List 合并去重

TFT屏幕-ILI9486数据手册带命令标签版.pdf

ILI9486手册 官方手册 ILI9486 is a 262,144-color single-chip SoC driver for a-Si TFT liquid crystal display with resolution of 320RGBx480 dots, comprising a 960-channel source driver, a 480-channel gate driver, 345,600bytes GRAM for graphic data of 320RGBx480 dots, and power supply circuit. The ILI9486 supports parallel CPU 8-/9-/16-/18-bit data bus interface and 3-/4-line serial peripheral interfaces (SPI). The ILI9486 is also compliant with RGB (16-/18-bit) data bus for video image display. For high speed serial interface, the ILI9486 also provides one data and clock lane and supports up to 500Mbps on MIPI DSI link. And also support MDDI interface.