博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Android学习笔记之性能优化SparseArray
阅读量:4224 次
发布时间:2019-05-26

本文共 5994 字,大约阅读时间需要 19 分钟。

1.Android中SparseArray的使用..

 

  昨天研究完横向二级菜单,发现其中使用了SparseArray去替换HashMap的使用.于是乎自己查了一些相关资料,自己同时对性能进行了一些测试。首先先说一下SparseArray的原理.

  SparseArray(稀疏数组).他是Android内部特有的api,标准的jdk是没有这个类的.在Android内部用来替代HashMap<Integer,E>这种形式,使用SparseArray更加节省内存空间的使用,SparseArray也是以key和value对数据进行保存的.使用的时候只需要指定value的类型即可.并且key不需要封装成对象类型.

  楼主根据亲测,SparseArray存储数据占用的内存空间确实比HashMap要小一些.一会放出测试的数据在进行分析。我们首先看一下二者的结构特性.

  HashMap是数组和链表的结合体,被称为链表散列.

  SparseArray是单纯数组的结合.被称为稀疏数组,对数据保存的时候,不会有额外的开销.结构如下:

  这就是二者的结构,我们需要看一下二者到底有什么差异...

  首先是插入:

  HashMap的正序插入:

复制代码

HashMap
map = new HashMap
(); long start_map = System.currentTimeMillis(); for(int i=0;i
"+end_map+"<---Map占用的内存--->"+map_memory); 执行后的结果: <---Map的插入时间--->914 <---Map占用的内存--->28598272

复制代码

   SparseArray的正序插入:

复制代码

SparseArray
sparse = new SparseArray
(); long start_sparse = System.currentTimeMillis(); for(int i=0;i
"+end_sparse+"<---Sparse占用的内存--->"+sparse_memory);//执行后的结果:<---Sparse的插入时间--->611<---Sparse占用的内存--->23281664

复制代码

   我们可以看到100000条数据量正序插入时SparseArray的效率要比HashMap的效率要高.并且占用的内存也比HashMap要小一些..这里的正序插入表示的是i的值是从小到大进行的一个递增..序列取决于i的值,而不是for循环内部如何执行...

  通过运行后的结果我们可以发现,SparseArray在正序插入的时候,效率要比HashMap要快得多,并且还节省了一部分内存。网上有很多的说法关于二者的效率问题,很多人都会误认为SparseArray要比HashMap的插入和查找的效率要快,还有人则是认为Hash查找当然要比SparseArray中的二分查找要快得多.

  其实我认为Android中在保存<Integer,Value>的时候推荐使用SparseArray的本质目的不是由于效率的原因,而是内存的原因.我们确实看到了插入的时候SparseArray要比HashMap要快.但是这仅仅是正序插入.我们来看看倒序插入的情况.

  HashMap倒序插入:

复制代码

System.out.println("<------------- 数据量100000 散列程度小 Map 倒序插入--------------->");  HashMap
map_2 = new HashMap
(); long start_map_2 = System.currentTimeMillis(); for(int i=MAX-1;i>=0;i--){ map_2.put(MAX-i-1, String.valueOf(MAX-i-1)); } long map_memory_2 = Runtime.getRuntime().totalMemory(); long end_map_2 = System.currentTimeMillis()-start_map_2; System.out.println("<---Map的插入时间--->"+end_map_2+"<---Map占用的内存--->"+map_memory_2); //执行后的结果: <------------- 数据量100000 Map 倒序插入---------------> <---Map的插入时间--->836<---Map占用的内存--->28598272

复制代码

  SparseArray倒序插入:

复制代码

System.out.println("<------------- 数据量100000 散列程度小 SparseArray 倒序插入--------------->");SparseArray
sparse_2 = new SparseArray
();long start_sparse_2 = System.currentTimeMillis();for(int i=MAX-1;i>=0;i--){ sparse_2.put(i, String.valueOf(MAX-i-1));}long sparse_memory_2 = Runtime.getRuntime().totalMemory();long end_sparse_2 = System.currentTimeMillis()-start_sparse_2;System.out.println("<---Sparse的插入时间--->"+end_sparse_2+"<---Sparse占用的内存--->"+sparse_memory_2);//执行后的结果<------------- 数据量100000 SparseArray 倒序插入---------------><---Sparse的插入时间--->20222<---Sparse占用的内存--->23281664

复制代码

 通过上面的运行结果,我们仍然可以看到,SparseArray与HashMap无论是怎样进行插入,数据量相同时,前者都要比后者要省下一部分内存,但是效率呢?我们可以看到,在倒序插入的时候,SparseArray的插入时间和HashMap的插入时间远远不是一个数量级.由于SparseArray每次在插入的时候都要使用二分查找判断是否有相同的值被插入.因此这种倒序的情况是SparseArray效率最差的时候.

 SparseArray的插入源码我们简单的看一下..

复制代码

public void put(int key, E value) {        int i = ContainerHelpers.binarySearch(mKeys, mSize, key); //二分查找.        if (i >= 0) {  //如果当前这个i在数组中存在,那么表示插入了相同的key值,只需要将value的值进行覆盖..            mValues[i] = value;        } else {  //如果数组内部不存在的话,那么返回的数值必然是负数.            i = ~i;  //因此需要取i的相反数.            //i值小于mSize表示在这之前. mKey和mValue数组已经被申请了空间.只是键值被删除了.那么当再次保存新的值的时候.不需要额外的开辟新的内存空间.直接对数组进行赋值即可.            if (i < mSize && mValues[i] == DELETED) {                mKeys[i] = key;                mValues[i] = value;                return;            }            //当需要的空间要超出,但是mKey中存在无用的数值,那么需要调用gc()函数.            if (mGarbage && mSize >= mKeys.length) {                gc();                                // Search again because indices may have changed.                i = ~ContainerHelpers.binarySearch(mKeys, mSize, key);            }            //如果需要的空间大于了原来申请的控件,那么需要为key和value数组开辟新的空间.            if (mSize >= mKeys.length) {                int n = ArrayUtils.idealIntArraySize(mSize + 1);                //定义了一个新的key和value数组.需要大于mSize                int[] nkeys = new int[n];                Object[] nvalues = new Object[n];                // Log.e("SparseArray", "grow " + mKeys.length + " to " + n);                //对数组进行赋值也就是copy操作.将原来的mKey数组和mValue数组的值赋给新开辟的空间的数组.目的是为了添加新的键值对.                System.arraycopy(mKeys, 0, nkeys, 0, mKeys.length);                System.arraycopy(mValues, 0, nvalues, 0, mValues.length);                //将数组赋值..这里只是将数组的大小进行扩大..放入键值对的操作不在这里完成.                mKeys = nkeys;                mValues = nvalues;            }            //如果i的值没有超过mSize的值.只需要扩大mKey的长度即可.            if (mSize - i != 0) {                // Log.e("SparseArray", "move " + (mSize - i));                System.arraycopy(mKeys, i, mKeys, i + 1, mSize - i);                System.arraycopy(mValues, i, mValues, i + 1, mSize - i);            }            //这里是用来完成放入操作的过程.            mKeys[i] = key;            mValues[i] = value;            mSize++;        }    }

复制代码

  这就是SparseArray插入函数的源码.每次的插入方式都需要调用二分查找.因此这样在倒序插入的时候会导致情况非常的糟糕,效率上绝对输给了HashMap学过数据结构的大家都知道.Map在插入的时候会对冲突因子做出相应的决策.有非常好的处理冲突的方式.不需要遍历每一个值.因此无论是倒序还是正序插入的效率取决于处理冲突的方式,因此插入时牺牲的时间基本是相同的.

  通过插入.我们还是可以看出二者的差异的.

  我们再来看一下查找首先是HashMap的查找.

复制代码

System.out.println("<------------- 数据量100000 Map查找--------------->");  HashMap
map = new HashMap
(); for(int i=0;i

复制代码

   SparseArray的查找:

复制代码

System.out.println("<------------- 数据量100000  SparseArray 查找--------------->");  SparseArray
sparse = new SparseArray
(); for(int i=0;i<10000;i++){ sparse.put(i, String.valueOf(i)); } long start_time =System.currentTimeMillis(); for(int i=0;i

复制代码

  我这里也简单的对查找的效率进行了测试.对一个数据或者是几个数据的查询.二者的差异还是非常小的.当数据量是100000条.查100000条的效率还是Map要快一点.数据量为10000的时候.这就差异性就更小.但是Map的查找的效率确实还是赢了一筹.

  其实在我看来.在保存<Integer,E>时使用SparseArray去替换HashMap的主要原因还是因为内存的关系.我们可以看到.保存的数据量无论是大还是小,Map所占用的内存始终是大于SparseArray的.数据量100000条时SparseArray要比HashMap要节约27%的内存.也就是以牺牲效率的代价去节约内存空间.我们知道Android对内存的使用是极为苛刻的.堆区允许使用的最大内存仅仅16M.很容易出现OOM现象的发生.因此在Android中内存的使用是非常的重要的.因此官方才推荐去使用SparseArray<E>去替换HashMap<Integer,E>.官方也确实声明这种差异性不会超过50%.所以牺牲了部分效率换来内存其实在Android中也算是一种很好的选择吧.

 

转载自:

你可能感兴趣的文章
终结谷歌AutoML的真正杀手!Saleforce开源TransmogrifAI
查看>>
六个维度、数万条数据帮你揭穿房租大涨的背后(附代码)
查看>>
干货 | 只有100个标记数据,如何精确分类400万用户评论?
查看>>
独家 | 全解用Python建立能源市场算法交易的机器学习框架(附链接)
查看>>
重磅 | 2018年清华大学研究生新生大数据
查看>>
独家 | 初学者的问题:在神经网络中应使用多少隐藏层/神经元?(附实例)
查看>>
资源 | 机器学习必知的15大框架,欢迎补充!
查看>>
基于问题导向与成果产出的教学模式:《大数据与城市规划》特色课程
查看>>
Python 爬取北京二手房数据,分析北漂族买得起房吗?(附完整源码)
查看>>
清华大学AMiner团队发布《超级计算机研究报告》(附下载)
查看>>
第一届全国计算社会科学高端论坛在清华大学举行
查看>>
“还完花呗,再也不用吃土!”是真的吗?(附代码)
查看>>
玩转数据、拥抱智能 | 清华大学大数据能力提升项目宣讲会火热来袭
查看>>
收藏 | 应对程序员面试,你必须知道的8大数据结构
查看>>
避坑指南:数据科学家新手常犯的13个错误(附工具、学习资源链接)
查看>>
智慧城市新探索:摩拜&京东联合利用智能单车数据检测违章停车
查看>>
福利 | 大数据新媒体平台面向清华校内师生开放!
查看>>
独家 | 盘点9个适用所有学科的R数据可视化包(附链接)
查看>>
资源 | 来自独秀同学的深度网络数学笔记,还不快收藏?
查看>>
清华大数据系列讲座——大数据发展与区块链应用成功举办
查看>>