欢迎关注大数据技术架构与案例微信公众号:过往记忆大数据
过往记忆博客公众号iteblog_hadoop
欢迎关注微信公众号:
过往记忆大数据

经常访问本博客的朋友肯定已经发现本博客经常无法登陆及评论,这是因为本博客目前流量已经超过服务器的负载。特别在工作日期间,访问的人数增加,为了能够快速响应大家的页面请求,本博客在工作日期间会对博客的全部文章和首页进行静态化处理,所有文章页面全部提前生成,这样就不需要每次都去数据库里面查询信息,并且解析操作。同时,本博客在工作日期间会将网站带宽增加到 2Mb/s。但静态化这个处理直接导致了本博客的登录和评论功能无法使用。如需要评论功能,请到本博客的微信小程序进行评论。或者直接到本文下面进行评论。

注意,本页面支持登录和评论功能。

本博客文章除特别声明,全部都是原创!
原创文章版权归过往记忆大数据(过往记忆)所有,未经许可不得转载。
本文链接: 【为什么本博客无法评论和登录】(https://www.iteblog.com/why-this-blog-cannot-comment-and-login/)
发表我的评论
取消评论

表情
本博客评论系统带有自动识别垃圾评论功能,请写一些有意义的评论,谢谢!
(11)个小伙伴在吐槽
  1. 大佬,想咨询一下https://www.iteblog.com/archives/9896.html这篇iceberg合并小文件文章中有一个点不了解。return TableScanUtil.planTasks(splitTasks, targetSizeInBytes, splitLookback, splitOpenFileCost)中planTasks在这里到底是做了什么工作?是什么原理呢?

    灰色,轨迹!2021-04-03 03:15 回复
  2. “这些计数器在Slaves节点上可用,但是Slaves节点不能对其进行读取”,为什么可以使用,但不能读取。。。。。?

    yanmin2019-09-19 11:19 回复
    • 你说的是 Spark 累加器?

      w3970907702019-09-19 23:21 回复
      • 对,是看了您一篇文章里面讲spark两种共享变量,讲累加器时写的一句话,没太明白什么意思。

        yanmin2019-09-19 23:30 回复
  3. DeltaLake的update操作,需要新建文件,如果有很大一部分的数据需要update,性能损耗也是比较严重的吧。如果更新量比较大,估计还不如批量导入HDFSwe年来得快。

    schahaha2019-09-19 11:11 回复
    • Delta Lake 的更新在极端情况下是需要读取所有的文件然后更新的,所以官方也是建议最好使用分区表去建 Delta Lake 表。

      w3970907702019-09-19 23:20 回复
  4. 最近看到博主一直在更新cassandra的文章。有个问题想咨询下,Cassandra除了类SQL操作,和Hbase比起来,就您的使用经历来说,有什么优劣之处呢?

    schahaha2019-05-07 22:15 回复
    • 加下我微信 iteblog ,我拉你到知识星球去讨论吧。

      w3970907702019-05-08 09:39 回复
  5. 刚刚看到你关于STS的文章,有几个疑问想咨询下。spark thriftserver和 hive thriftserver使用的同样的jdbc连接方式,连端口和驱动类都是一样的。我现在spark是2.3.2,hive是1.2.1,STS启动之后,beeline连接不上。请问,这个是和spark与hive版本之间的适配问题,还是我操作错了呢?

    schahaha2019-03-21 13:24 回复
    • 最好提供一下异常堆栈,要不然也不好定位的

      w3970907702019-03-21 18:20 回复
  6. 您好,阅读了您的"thriftserver权限"文章后(https://www.iteblog.com/archives/2318.html)尝试了一下,想请问一下这种方式的权限只是限制了thriftserver的连接,而不同用户连接上之后对库和表的权限都是超级用户?是不受hive控制的吗?希望您能在百忙之中抽出时间解答一下。 谢谢!

    Etrone Zhang2018-09-03 16:19 回复