“百花齐放,百家争鸣”

人工智能再掀热潮,近期国产AI大模型竞相发布。继百度、三六零、商汤等科技巨子发布各自负模型后,阿里巴巴“通义千问”大模型4月11日也露脸云峰会。据介绍,阿里达摩院2019年便已启动中文大模型研制。不得不说,这些大厂都是站得高看的远的,稍不留神就会被落下。

阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表明,未来阿里巴巴所有产品都将接入“通义千问”大模型,进行全面改造。据悉,钉钉、天猫精灵将率先接入通义千问测验,评估认证后正式发布新功能。

先给个官网测验地址吧:tongyi.aliyun.com/

我是当天就申请了,没过几天,好消息就来了

阿里的通义千问,震惊到我了

咱们今天来说下讲下通义千文的AI感触

我是通义千问 ,一个专门呼应人类指令的大模型

阿里的通义千问,震惊到我了

首要进来的落地页面和百度的文心一言、ChatGPT等布局不一样,它多了一些聚焦话题模块,让用户能够直接进入该模块得到自己想要的答案。这是其一,咱们再往下看有个百宝袋:

阿里的通义千问,震惊到我了

这儿面是亮点,好不好用先不说,反正挺扎眼的,咱们进去彩虹屁专家看是怎么样的一个“专家”

阿里的通义千问,震惊到我了

只能呵呵了,感觉很生硬!!!

阿里的通义千问,震惊到我了

输入“鱼香肉丝”,回答

鱼香肉丝菜品

所需食材:
-瘦猪肉丝 250克
-青椒 50克
-红椒 50克
-葱 30克
-姜 10克
-大蒜 10克
-盐 适量
-酱油 适量
-料酒 适量
-生抽 适量
-白糖 适量
-香醋 适量
-生姜 适量
-大蒜 适量
-淀粉 适量
-香油 适量

具体过程:

  1. 猪肉洗净切细丝,参加盐、酱油、淀粉拌和均匀腌制15分钟。
  2. 青红椒去蒂去籽切细丝,葱姜蒜切末备用。
  3. 热锅冷油参加葱姜蒜爆香。
  4. 参加腌制好的肉丝煸炒至变色,参加青红椒丝翻炒。
  5. 参加生抽、白糖、香醋、盐、料酒、适量清水翻炒均匀。
  6. 终究滴入香油,撒上葱花即可。

完整做法:

  1. 猪肉洗净切细丝,参加盐、酱油、淀粉拌和均匀腌制15分钟。
  2. 青红椒去蒂去籽切细丝,葱姜蒜切末备用。
  3. 热锅冷油参加葱姜蒜爆香。
  4. 参加腌制好的肉丝煸炒至变色,参加青红椒丝翻炒。
  5. 参加生抽、白糖、香醋、盐、料酒、适量清水翻炒均匀。
  6. 终究滴入香油,撒上葱花即可。

SWOT剖析

百宝袋中SWOT剖析值得去问问,去跟他聊聊

阿里的通义千问,震惊到我了

优势:

  1. GPT 能够为个人或企业生成各种文本内容,包括文章、广告、电子邮件、网页等。这种自动化东西能够加快文本生成,削减创造时间,一起能够削减错误率。
  2. GPT 能够在语言和文明领域生成高质量的文本,使得文本的语言、文明和主题愈加准确。
  3. GPT 能够依据个人或企业的需求生成文本,提供个性化的服务,使得客户更容易接受产品或服务。

劣势:

  1. 在运用 GPT 生成文本时,需求输入相应的信息,否则 GPT 无法生成正确的文本。
  2. 需求将所有的信息输入到 GPT 中,否则 GPT 将无法为用户生成所需的文本。
  3. 假如生成的文本与其别人的文本存在很大的相似性,或许会被视为侵权。

时机:

  1. 随着人工智能技术的不断发展,GPT 将成为一个普及化的东西,使得更多的人能够运用它来生成文本。
  2. 对于企业来说,运用 GPT 能够进步生产功率和生产力,然后添加收益。
  3. 因为 GPT 的生成文本准确度高,因而能够进步客户的满意度,然后促进出售。

要挟:

  1. 因为 GPT 能够快速生成文本,因而或许会对人类的作业形成要挟。
  2. 运用 GPT 或许会导致人们的创造力和创造才能下降,因为人们或许会将生成文本作为一个机械的过程。
  3. 假如 GPT 的生成文本或许会被认为是侵权的,那么运用 GPT 或许会导致法律纠纷

咱们用官方的示例,“在疫情后时代中,传统制造业的时机在哪里

阿里的通义千问,震惊到我了

咱们再来看下编码才能

这儿就不粘贴图片了,咱们用对话的形式将编码才能写下来,咱们感触下:

Q: scala spark中怎么核算同环比
A: 同环比是指在时间范围内,同一组的数值比较,以及环比是指相对于前一个时间的变化。 在 Scala Spark 中,能够经过 `filter()` 函数和 `map()` 函数来完成同环比的核算。 假设有一个数据集是按天分区的,其中有一列是日期。现在想要核算相邻两天的同环比,能够依照以下过程:
1.  创建一个时间窗口,依照日期分区。
2.  将数据集分红若干个子集,每个子集包括相邻的两天。
3.  对每个子集执行上述核算,得到每组的同环比。
示例代码如下:
import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql._
val dateColumn = Seq("date").toDF("date")
val timeWindow = dateColumn.withColumn("end_date", "date").over(
  Window.partitionBy("date").orderBy("date")
)
val df = spark.createDataFrame(Seq(("2019-01-01"), ("2019-01-02"), ("2019-01-03"), ("2019-01-04"), ("2019-01-05"), ("2019-01-06"), ("2019-01-07"), ("2019-01-08"), ("2019-01-09"), ("2019-01-10"), ("2019-01-11"), ("2019-01-12"), ("2019-01-13"), ("2019-01-14"), ("2019-01-15"), ("2019-01-16"), ("2019-01-17"), ("2019-01-18"), ("2019-01-19"), ("2019-01-20"), ("2019-01-21"), ("2019-01-22"), ("2019-01-23"), ("2019-01-24"), ("2019-01-25"), ("2019-01-26"), ("2019-01-27"), ("2019-01-28"), ("2019-01-29"), ("2019-01-30"), ("2019-01-31")), Seq("id", "date"))
val resultDF = df.groupBy(dateColumn, "id").agg(first("date"), avg("value").as("value"))
resultDF.show()
输出结果:
+---+----------------+---------+
| id|     date       | value|
+---+----------------+---------+
| 2019-01-01| 2019-01-01   |      5|
| 2019-01-02| 2019-01-02   |      5|
| 2019-01-03| 2019-01-03   |      2|
| 2019-01-04| 2019-01-04   |      3|
| 2019-01-05| 2019-01-05   |      3|
| 2019-01-06| 2019-01-06   |      1|
| 2019-01-07| 2019-01-07   |      2|
| 2019-01-08| 2019-01-08   |      1|
| 2019-01-09| 2019-01-09   |      1|
| 2019-01-10| 2019-01-10   |      0|
| 2019-01-11| 2019-01-11   |      0|
| 2019-01-12| 2019-01-12   |      1|
| 2019-01-13| 2019-01-13   |      1|
| 2019-01-14| 2019-01-14   |      0|
| 2019-01-15| 2019-01-15   |      0|
| 2019-01-16| 2019-01-16   |      1|
| 2019-01-17| 2019-01-17   |      0|
| 2019-01-18| 2019-01-18   |      0|
| 2019-01-19| 2019-01-19   |      1|
| 2019-01-20| 2019-01-20   |      1|
| 2019-01-21| 2019-01-21   |      0|
| 2019-01-22| 2019-01-22   |      0|
| 2019-01-23| 2019-01-23   |      1|
| 2019-01-24| 2019-01-24   |      0|
| 2019-01-25| 2019-01-25   |      0|
| 2019-01-26| 2019-01-26   |      1|
| 2019-01-27| 2019-01-27   |      0|
| 2019-01-28| 2019-01-28   |      0|
| 2019-01-29| 2019-01-29   |      0|
| 2019-01-30| 2019-01-30   |      0|
| 2019-01-31| 2019-01-31   |      0|
+---+----------------+---------+

发现他并没有核算同环比,接着问:

Q: 并没有核算同环比啊

A: 感谢您指出这个问题。在原来的代码中,咱们只核算了相邻两天的差值,没有考虑相邻两天的环比增加。在核算同环比时,需求将每组数据的相邻两天也考虑进去,所以需求参加一个时间窗口来保存每组数据的相邻两天。 修改后的代码如下:


import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.types._
val dateColumn = Seq("date").toDF("date")
val timeWindow = dateColumn.withColumn("end_date", "date").over(
  Window.partitionBy("date").orderBy("date")
)
val df = spark.createDataFrame(Seq(("2019-01-01"), ("2019-01-02"), ("2019-01-03"), ("2019-01-04"), ("2019-01-05"), ("2019-01-06"), ("2019-01-07"), ("2019-01-08"), ("2019-01-09"), ("2019-01-10"), ("2019-01-11"), ("2019-01-12"), ("2019-01-13"), ("2019-01-14"), ("2019-01-15"), ("2019-01-16"), ("2019-01-17"), ("2019-01-18"), ("2019-01-19"), ("2019-01-20"), ("2019-01-21"), ("2019-01-22"), ("2019-01-23"), ("2019-01-24"), ("2019-01-25"), ("2019-01-26"), ("2019-01-27"), ("2019-01-28"), ("2019-01-29"), ("2019-01-30"), ("2019-01-31")), Seq("id", "date"))
val resultDF = df.groupBy(dateColumn, "id").agg(first("date"), avg("value").as("value"))
val idxWindow = Seq("date", "end_date").toDF("idx", "end_date")
val resultDF2 = resultDF.join(idxWindow, "left_id", "right_id", "date")
resultDF2.show()

在这个代码中,咱们在 timeWindow 中新增了一列 idx 表明相邻两天的索引,并将 date 列和 end_date 列进行了索引。然后,咱们运用这两个索引进行了 join 操作,以核算同环比。 需求留意的是,因为咱们运用的是 date 列作为分区键,所以 end_date 列是依照日期排序的。因而,咱们需求在核算同环比之前,先按日期排序每个子集,以确保同环比的值是接连的。

再问下java

Q:java 完成二分法排序

以下是 Java 完成二分查找排序的示例代码:

public static void bubbleSort(int[] nums) {
    int n = nums.length;
    for (int i = 0; i < n - 1; i++) {
        for (int j = 0; j < n - i - 1; j++) {
            if (nums[j] > nums[j + 1]) {
                int temp = nums[j];
                nums[j] = nums[j + 1];
                nums[j + 1] = temp;
            }
        }
    }
}

这个完成运用了双重循环,以比较相邻的两个元素,并将较小的元素向后移动一个方位。在每一轮比较中,最大的元素将被保存下来,而最小的元素将被替换为它的下一个元素。因而,终究的有序数组将按升序排列。 同样地,假如需求运用二分查找排序一个数组,能够运用相似的方法来完成。需求留意的是,因为这种排序算法的时间复杂度是 O(n^2),因而在处理大型数据集时,或许需求运用其他算法来优化性能。

总结:

整体来说还行,不是那么的让人失望,补充一句,不支持图片,是的

咱们今天共享到这儿,你也能够查找微信大众号“1点东西”,会有很多AI材料,感谢点赞,重视。

最近一直在写AIGPT类的东西,都收录在下方AI专栏里,今后也会持续输出。