Linux安装Anaconda下载minicondahttps://repo.anaconda.com/miniconda/Centos下载:Miniconda3-latest-Linux-x86_64.shUbuntu下载:Miniconda3-latest-Linux-aarch64.sh
安装miniconda执行下载的sh文件,例如:sh Miniconda3-latest-Linux-x86_64.sh全部选yes,可以自定义路径重启终端设置默认不启动:conda config --set auto_activate_base false
配置conda镜像vim ~/.condarc加入如下内容
12345678910111213show_channel_urls: truedefault_channels: - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r - https://mirrors. ...
安装安装vimsudo apt install vim
更换国内软件源国内源:
清华源:https://mirrors.tuna.tsinghua.edu.cn/help/ubuntu
中科大源:http://mirrors.ustc.edu.cn/help/ubuntu.html
阿里源:https://developer.aliyun.com/mirror/ubuntu
网易源:http://mirrors.163.com/.help/ubuntu.html
更换清华源:
备份原文件进入路径cd /ect/apt,备份文件sudo cp sources.list sources.list_bak
在最后添加清华源地址sudo vim sources.list1234deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ noble main restricted universe multiversedeb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ noble-updates main ...
安装方式proot安装的linux 和 qemu安装的liunx有什么区别Proot和QEMU都是用于在一个系统中运行另一个系统的方法,但它们的实现方式和应用场景有很大的不同。以下是它们之间的主要区别:
Proot
工作原理:
Proot 是一个用户空间工具,它使用 Linux 的 ptrace 功能来拦截和模拟系统调用。通过这种方式,Proot 可以在不需要超级用户权限的情况下创建一个隔离的文件系统视图。
Proot 主要是通过重定向文件系统操作、环境变量和动态链接库来模拟一个虚拟的根文件系统环境。
性能:
由于 Proot 不模拟硬件,而是直接在宿主系统的内核上运行,因此它的性能接近于原生运行应用程序。
使用场景:
Proot 常用于快速设置开发环境、在 Android 上运行 Linux 用户空间工具以及在没有 root 权限的情况下进行软件测试和开发。
限制:
Proot 不能提供完整的系统隔离,因为它依赖于宿主系统的内核。它无法模拟不同架构的系统,无法运行内核模块,无法模拟低级别的系统行为。
QEMU
工作原理:
QEMU 是一个通用的开源模拟器和 ...
1. 简介spring-boot-actuator可以监控和管理基于Spring Boot的应用程序https://docs.spring.io/spring-boot/docs/2.7.18/reference/html/actuator.html
2. demo在springboot项目中添加依赖
1234<dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-actuator</artifactId> </dependency>
浏览器访问:http://127.0.0.1:8080/actuator
12345678910111213141516{ "_links": { "self": { "href": "http://127.0.0.1:80 ...
Android
未读1. 原理termux -> qemu -> alpine linux -> docker
2. 步骤安装termux下载从f-droid或者github下载安装包,https://github.com/termux/termux-app/releases选择:termux-app_v0.118.0+github-debug_arm64-v8a.apk安装到手机上,并运行软件
更新源termux-change-repo第一个页面点击OK
第二个页面选择Mirrors by Tsinghua(清华源)
更新软件源pkg update遇到需要选择的全部选择y
设置访问手机存储权限termux-setup-storage手机弹框,点击允许ls命令,可以看到storage文件夹
安装Qemu安装pkg install x11-repopkg install qemu-utils qemu-common qemu-system-x86-64 -y
查看安装qemu-system-x86_64 --version
下载镜像下载CentOS-7-x86_64-Minimal-200 ...
1. ADB2. Scrcpy通过 USB 或TCP/IP连接的 Android 设备(视频和音频) ,并允许使用计算机的键盘和鼠标控制设备。它不需要任何 root访问权限。它适用于Linux、Windows和macOS。Github: https://github.com/Genymobile/scrcpy
3. gnirehtet Android 提供反向网络共享:adb它允许设备使用它们所连接计算机的互联网连接。它不需要任何_root_访问权限(无论是在设备上还是在计算机上)。它适用于GNU/Linux、Windows和Mac OS。Github: https://github.com/Genymobile/gnirehtet需要从Scrcpy文件夹中复制adb三个文件到该文件夹下
错误日志:
1234567891011121314151617181920212223242526272024-06-01 00:35:36.094 INFO Main: Starting relay server on port 31416...2024-06-01 00:35: ...
1. 简介聊天类大模型如OpenAI、Qwen等均已经具备了外部函数调用的能力,可以通过定义清晰的函数说明和所需参数,将其输入到大模型中,让大模型根据输入的提示(Prompts)自动选择合适的函数执行。最终,大模型会返回一个JSON对象,包含了要调用的函数及其输入参数。LangChain框架抽象了允许使用各种“工具”构建自然语言接口的Tools模块,这些工具可以是API、函数、数据库等。提供了大量的内置工具和良好的模型输出解析,可以轻松从模型输出中提取 JSON、XML、OpenAI 函数调用等。其在运行过程中调用工具的流程图如下所示:大模型与工具使用的核心在于:正确地向大模型提出请求并解析其响应,从而准确选择合适的工具并为之提供恰当的输入。
LangChain的工具抽象模块源码文件位置为:langchain_core/tools.py在这个核心文件中,定义了一个工具(Tool)系统,提供外部工具与大模型的交互能力。其类的层次结果是:ToolMetaclass --> BaseTool --> <name>Tool # Examples: AIPluginTo ...
1. Model I/OLangChain的Model I/O模块提供了标准的、可扩展的接口实现与大语言模型的外部集成,包括模型输入(Prompts)、模型输出(OutPuts)和模型本身(Models),通过该模块可以快速与任意大模型进行对话。
在这个模块中,LangChain抽象出一个chain,用于进一步简化和增强交互流程。包含三个核心部分,Format,Predict,Parse
Format:Prompts Template,通过模板化来管理大模型的输入Predict:Models,使用通用接口调用不同的大语言模型Parse:Output,用来从模型的推理中提取信息,并按照预先设定好的模版来规范化输出
2. FormatPrompt Template利用各种提示工程技巧,如Few-Shot、链式推理(CoT)等方法,以提高大模型的推理性能。在实际应用开发中,提示词是动态变化的。LangChain通过Prompt Template支持变量和动态内容的插入,使同一个应用可以根据不同的输入动态调整提示词,从而更好地响应用户的具体需求。
3. PredictPre ...
人工智能
未读1. 🦜️🔗LangChain介绍LangChain是一个用于开发由大型语言模型(LLM)支持的应用程序的框架。官方文档:https://python.langchain.com/docs/get_started/introductionGithub:https://github.com/langchain-ai/langchain
🧱 使用 LangChain 可以构建什么?
❓ 用 RAG 回答问题
🧱 提取结构化输出
🤖 聊天机器人
……
2. 💟核心模块
Model I/O:标准化各大模型的输入输出,包括输入模板,模型本身和格式化输出
Retrieval:检索外部数据,在执行生成步骤是传递给LLM,包括文档加载,切割,Embedding等
Chains:链,最重要的模块,链接多个模块协同构建应用
Memory:记忆模块,构建历史信息,维护有关实体及其关系的信息
Agents:调用外部工具,真正能够实现人工智能的落地方案
Callbacks:回调系统,允许连接到LLM应用程序的各个阶段,用于日志记录,监控,流传输和其它任务
3. 🧰Lang ...