博客
关于我
并发编程模型Akka
阅读量:776 次
发布时间:2019-03-24

本文共 1011 字,大约阅读时间需要 3 分钟。

从整体上来看,Akka 是一个 JVM 平台上的工具包和运行时框架,专为构建高并发、分布式和容错的应用而设计。

Akka 的核心特点

Akka 不仅仅是一个通用的 JVM 平台,更是专为开发者构建高效、高性能的并发程序而打造的框架。尽管它最初是用 Scala 开发的,但同时也提供了丰富的 Java API,满足不同开发者的需求。

最显著的特点之一是它基于 Actor 模型,这完全改变了传统的并发编程方式。这种模型让开发者能够轻松地构建高效稳定的并发程序,无需过多关注线程管理、锁竞争等复杂问题。

###.Actor 模型的工作原理

在 Akka 的 Actor 模型中,所有 Actor 之间通过消息进行通信。当一个 Actor 将消息发送给另一个 Actor 时,该消息会自动进入接收方的邮箱。这种方式保证了消息的有序性和可靠性,操作非常简单,只需将消息加入目标 Actor 的邮箱。

值得注意的是,消息的处理方式非常灵活。发送消息的 Actor 可以选择等待处理完成,也可以选择异步处理。这大大提高了系统的效率和灵活性。

###Actor System 的管理

Akka 中的 Actor 系统负责创建和管理所有 Actor 实例。每个 Actor System 实例都是单例的,就可以理解为一个工厂,只能在一个 JVM 进程内运行。系统能够方便地创建和管理任意数量的 Actor 实例。

从性能方面考虑,Akka 的 Actor 模型设计得非常高效。它提供了一种轻量级的事件驱动模型,这使得即便面对百万级别的并发请求,系统也能在合理的内存范围内稳定运行。这一点对于需要处理大规模并发请求的应用来说,尤为重要。

###Dispatcher和Messager的作用

在内部,Akka 使用融合线程池机制来处理消息。Dispatcher(消息分发器)负责将消息转移到相应的 Actor 处理。这一机制确保了消息的高效传递和处理。

可以说,Akka 的核心设计理念就是抽象性和优化。它通过高级的抽象层,帮助开发者降低了编写高并发程序的复杂度,同时保证了系统的整体性能。这种设计理念让 Akka 成为了现代分布式应用开发的重要工具。

总的来说,Akka 通过简化并发编程的复杂性,将传统的低层次编程模型(如线程和锁)提升到一个更高级的抽象层。对于想要构建高性能、高可用性应用的开发者来说,Akka 提供了一个强大的工具箱。

转载地址:http://slxkk.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>