大家好,今天小编关注到一个比较有意思的话题,就是关于学习linux的大致框架的问题,于是小编就整理了3个相关介绍学习Linux的大致框架的解答,让我们一起看看吧。
linux下的api数量那么少,如何编写图形界面?
Linux编写图形界面的话,目前比较流行的就是GTK+、Qt和wxWidgets,前一个基于C语言开发,后两个基于C++开发,下面我分别简单介绍一下,感兴趣的朋友可以尝试一下:
01
GTK+
这是一个免费、开源、跨平台的GUI开发工具包,基于C语言开发而来,著名的GNOME桌面就是***用这个工具开发,自带了大量组件和容器,可以轻松布局开发任意Linux桌面程序,如果你本身只熟悉C语言的话,可以使用一下这个工具包,非常不错,简单易学,非常容易上手,而且官方自带了丰富的Demo示例,都有源码可供参考和学习:
02
Qt
这是一个免费、开源、跨平台的应用程序开发框架,基于C++开发而来,著名的Linux KDE桌面就***用这个框架开发,自带了可视化设计界面,包含了大量组件和容器,只需简单拖拽、编辑属性,就可快速创建一个GUI程序,官方资料丰富,社区文档全面,对于Linux桌面开发来说,非常不错,值得使用和学习:
03
想学习深度学习开源框架,比如tensorflow、caffe,需要掌握哪些linux知识?
如果仅仅是TensorFlow和Caffe的话,可以在Windows上开发。
TensorFlow的Windows支持挺不错的。
比如,在Windows上安装TensorFlow只需一个命令(***定你的机器配置好了显卡相关驱动、CUDA等,还有Python环境):
pip3 install --upgrade tensorflow-gpu
简单吧?
Caffe对Windows的支持没有TensorFlow好,还属于社区支持。
具体安装方法可以参考Caffe官方GitHub仓库的Windows分支。有适配Visual Studio 2015, CUDA 8.0, Python 3.5/2.7的编译好的二进制文件下载。
当然,还是有些框架对Windows支持很差或者干脆没有支持。所以基于Linux开发也不错。
我建议你直接用就是了,不用先去学Linux。今时今日,像Ubuntu这样的发行版,基本上已经接近开箱即用的程度(注意,仅限于开发方面)。
大数据的框架主要学习和使用什么呢?
你说的应该是大数据平台中的主流框架,我列举一下:
(一)Hadoop生态圈
- HDFS:分布式文件系统,解决大数据的存储
- Yarn(MapReduce):分布式计算框架,解决大数据的计算
- Hive:Hadoop中的数据分析引擎,支持SQL
- HBase:基于HDFS的NoSQL数据库
- ZooKeeper:分布式协调服务,可以用于实现HA(高可用架构)
- 其他
- (二)Spark生态圈
- Spark Core:Spark的核心,用于离线计算
- Spark SQL:Spark的数据分析引擎,支持SQL语句
- Spark Streaming:Spark的流式计算引擎,但本质依然是离线计算
- MLlib:机器学习框架
- (三)Flink生态圈
- Flink DataSet:Flink批处理(离线计算)API
- Flink DataStream:Flink流处理(实时计算)API
- Flink Table&SQL:Flink的数据分析引擎,支持SQL语句
- MLlib:机器学习框架
到此,以上就是小编对于学习linux的大致框架的问题就介绍到这了,希望介绍关于学习linux的大致框架的3点解答对大家有用。