专业的编程技术博客社区

网站首页 > 博客文章 正文

基于OpenAI-Whisper的语音聊天机器人

baijin 2024-09-03 09:57:39 博客文章 5 ℃ 0 评论

你好!今天,我想给你提供一些关于聊天机器人的信息以及这种技术的工作原理。如今,聊天机器人被广泛应用于各种场景,我决定自己尝试一下这项技术。我创建了一个使用 OpenAI 的 Whisper 模型的聊天机器人。该模型能够将收到的音频输入转换为文本,然后将这些基于文本的问题传递给 OpenAI 的 LLM 模型以获取响应。现在,我正在解释这个聊天机器人的工作原理以及如何设置,因此你可以和我一起走这段旅程。

下载 Requirements.txt 文件

openai
flask
python-dotenv
flask-cors

创建 requirements 文件后,您可以使用以下命令下载它:

pip3 install -r requirements.txt

导入库

from openai import OpenAI, OpenAIError
from flask import Flask, request, jsonify
from dotenv import load_dotenv
import os
from flask_cors import CORS
from tempfile import NamedTemporaryFile

将 OpenAI 与 Flask 集成

首先,我们需要创建一个 .env 文件,通过这个文件我们可以集成我们的 OpenAI 密钥。您也可以从以下链接获取 OpenAI 密钥:

OpenAI API openai.com开始编码吧!!!

load_dotenv()
OPENAI_API_KEY = os.getenv('OPENAI_API_KEY')
client = OpenAI(api_key=OPENAI_API_KEY)

app = Flask(__name__)
CORS(app)

  1. load_dotenv(): 从 .env 文件加载环境变量。
  2. OPENAI_API_KEY = os.getenv('OPENAI_API_KEY'): 从环境变量中检索 OpenAI API 密钥。
  3. client = OpenAI(api_key=OPENAI_API_KEY): 初始化 OpenAI API 的客户端对象。
  4. app = Flask(__name__): 创建一个 Flask Web 应用程序。
  5. CORS(app): 为 Flask 应用启用跨源资源共享支持。

设置函数

让我们从第一个函数开始

  1. 获取 OpenAI 响应

@app.route('/get_response', methods=['POST'])
def get_openai_response():
message = request.json.get('message', '')

if not message:
return jsonify({'error': "Message is required."}), 400

try:
response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": message}
]
)
chat_response = response.choices[0].message.content
return jsonify({'response': chat_response})
except Exception as e:
return jsonify({'error': str(e)}), 500

  1. 获取 OpenAI 文本响应

def get_openai_text_response(message):
if not message:
return {'error': "Message is required."}

try:
response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": message}
]
)
chat_response = response.choices[0].message.content
return {'response': chat_response}

except Exception as e:
return {'error': str(e)}

  1. 处理语音并获取响应

@app.route('/whisper', methods=['POST'])
def handle_voice_and_get_response():
results = []
for filename, handle in request.files.items():
temp = NamedTemporaryFile(suffix=".wav",delete=False)
handle.save(temp)

with open(temp.name, "rb") as audio_file:
transcription = client.audio.transcriptions.create(
model="whisper-1",
file=audio_file
)
transcript = transcription.text
openai_response = get_openai_text_response(transcript)

results.append({
'filename': filename,
'transcript': transcript,
'openai_response': openai_response
})
return results

if __name__ == '__main__':
app.run(debug=True)

这一行确保当脚本直接执行时,Flask 应用以调试模式运行。

这些定义共同使得 Flask Web 应用能够与 OpenAI 的 API 进行交互,处理文本和音频输入,并生成 OpenAI 的语言处理模型产生的响应。

现在我们已经完成了后端部分,是时候查看我们在前端部分准备的函数的功能了。

前端部分

MUI(Material-UI)是一个我用于设计前端的 React UI 库,它利用了受 Google 材料设计启发的预构建组件,便于创建视觉精美且响应迅速的用户界面。

总的来说,构建一个由 OpenAI 的 Whisper 模型驱动的语音聊天机器人,并与 Flask 集成,是一次丰富的经历。通过利用 OpenAI 先进语言模型的能力,加上 Flask 和 Material-UI 提供的开发便利,我们创建了一个无缝的语音互动用户体验。特别感谢我的同事 Ebru Boyac? 在前端开发中的宝贵贡献。如果您有任何问题或建议,请随时联系我。

对于那些有兴趣进一步探索代码的朋友,您可以在我的 GitHub 账户上找到整个项目。

GitHub 仓库链接:https://github.com/toygunozyurekk/Voice-Chatbot

请随意自定义 GitHub 仓库链接以匹配您实际的仓库 URL。

参考文章:Voice Chatbot(OpenAI-Whisper)

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表