接案工作

 
地區
程式設計工作
輸入關鍵字找案件
地區

"程式設計工作" 相關案件

- 共67

軟體開發

電話
段〇〇光
地區台北市 中正區
金額顧客預算:五十到一百萬
其他交件時限:急件: We are building an offline-first AI Digital Doctor Platform — a real-time interactive avatar system that runs entirely on local hardware. This is not a chatbot project. This is not a website. This is a product-level AI system designed to operate without cloud dependency, with future SaaS scalability. Vision Create a single-node, fully offline AI system capable of: • Real-time doctor-avatar interaction • Low-latency speech-to-speech response • WebRTC-based video interface (Meet-like UX) • Modular LLM / STT / TTS architecture • Local knowledge ingestion & daily sync • Deployable on high-performance laptops or edge machines Phase 1 is a commercial MVP. Phase 2 expands into multi-clinic deployment and enterprise orchestration. ⸻ Technical Scope We are looking for engineers comfortable with: • Local LLM inference (7B–13B class models) • CUDA optimization & VRAM management • Quantization strategies • Streaming STT + TTS pipelines • WebRTC video + data channel integration • Audio-driven avatar rendering • Docker-based modular architecture • Offline RAG and versioned data ingestion This system must: • Run fully offline • Maintain ~1–2s response latency • Be modular and replaceable at each layer • Deliver full source code and deployment documentation ⸻ Who We Want Engineers who: • Have deployed local inference systems before • Understand performance bottlenecks • Can design scalable architecture from day one • Think in systems, not scripts This is an opportunity to build a foundational AI platform — not a contract task. All IP and derivative rights belong to 弛雅有限公司.
11小時前

搶先接洽

程式設計工作
RD 工作
web 接案
1. 網站,後台管理系統,電腦應用程式,電腦遊戲,其他   2. 其他   3. 其他   4. 其他   5. 其他  
描述: 1. We are building an offline-first AI Digital Doctor Platform — a real-time interactive avatar system that runs entirely on local hardware. This is not a chatbot project. This is not a website. This is a product-level AI system designed to operate without cloud dependency   2. We are building an offline-first AI Digital Doctor Platform — a real-time interactive avatar system that runs entirely on local hardware. This is not a chatbot project. This is not a website. This is a product-level AI system designed to operate without cloud dependency   3. We are building an offline-first AI Digital Doctor Platform — a real-time interactive avatar system that runs entirely on local hardware. This is not a chatbot project. This is not a website. This is a product-level AI system designed to operate without cloud dependency, with future SaaS scalability. Vision Create a single-node, fully offline AI system capable of: • Real-time doctor-avatar interaction • Low-latency speech-to-speech response • WebRTC-based video interface (Meet-like UX) • Modular LLM / STT / TTS architecture • Local knowledge ingestion & daily sync • Deployable on high-performance laptops or edge machines Phase 1 is a commercial MVP. Phase 2 expands into multi-clinic deployment and enterprise orchestration. ⸻ Technical Scope We are looking for engineers comfortable with: • Local LLM inference (7B–13B class models) • CUDA optimization & VRAM management • Quantization strategies • Streaming STT + TTS pipelines • WebRTC video + data channel integration • Audio-driven avatar rendering • Docker-based modular architecture • Offline RAG and versioned data ingestion This system must: • Run fully offline • Maintain ~1–2s response latency • Be modular and replaceable at each layer • Deliver full source code and deployment documentation ⸻ Who We Want Engineers who: • Have deployed local inference systems before • Understand performance bottlenecks • Can design scalable architecture from day one • Think in systems, not scripts This is an opportunity to build a foundational AI platform — not a contract task. All IP and derivative rights belong to 弛雅有限公司. ⸻   4. We are building an offline-first AI Digital Doctor Platform — a real-time interactive avatar system that runs entirely on local hardware. This is not a chatbot project. This is not a website. This is a product-level AI system designed to operate without cloud dependency, with future SaaS scalability. Vision Create a single-node, fully offline AI system capable of: • Real-time doctor-avatar interaction • Low-latency speech-to-speech response • WebRTC-based video interface (Meet-like UX) • Modular LLM / STT / TTS architecture • Local knowledge ingestion & daily sync • Deployable on high-performance laptops or edge machines Phase 1 is a commercial MVP. Phase 2 expands into multi-clinic deployment and enterprise orchestration. ⸻ Technical Scope We are looking for engineers comfortable with: • Local LLM inference (7B–13B class models) • CUDA optimization & VRAM management • Quantization strategies • Streaming STT + TTS pipelines • WebRTC video + data channel integration • Audio-driven avatar rendering • Docker-based modular architecture • Offline RAG and versioned data ingestion This system must: • Run fully offline • Maintain ~1–2s response latency • Be modular and replaceable at each layer • Deliver full source code and deployment documentation ⸻ Who We Want Engineers who: • Have deployed local inference systems before • Understand performance bottlenecks • Can design scalable architecture from day one • Think in systems, not scripts This is an opportunity to build a foundational AI platform — not a contract task. All IP and derivative rights belong to 弛雅有限公司. ⸻   5. We are building an offline-first AI Digital Doctor Platform — a real-time interactive avatar system that runs entirely on local hardware. This is not a chatbot project. This is not a website. This is a product-level AI system designed to operate without cloud dependency   6. We are building an offline-first AI Digital Doctor Platform — a real-time interactive avatar system that runs entirely on local hardware. This is not a chatbot project. This is not a website. This is a product-level AI system designed to operate without cloud dependency, with future SaaS scalability. Vision Create a single-node, fully offline AI system capable of: • Real-time doctor-avatar interaction • Low-latency speech-to-speech response • WebRTC-based video interface (Meet-like UX) • Modular LLM / STT / TTS architecture • Local knowledge ingestion & daily sync • Deployable on high-performance laptops or edge machines Phase 1 is a commercial MVP. Phase 2 expands into multi-clinic deployment and enterprise orchestration. ⸻ Technical Scope We are looking for engineers comfortable with: • Local LLM inference (7B–13B class models) • CUDA optimization & VRAM management • Quantization strategies • Streaming STT + TTS pipelines • WebRTC video + data channel integration • Audio-driven avatar rendering • Docker-based modular architecture • Offline RAG and versioned data ingestion This system must: • Run fully offline • Maintain ~1–2s response latency • Be modular and replaceable at each layer • Deliver full source code and deployment documentation ⸻ Who We Want Engineers who: • Have deployed local inference systems before • Understand performance bottlenecks • Can design scalable architecture from day one • Think in systems, not scripts This is an opportunity to build a foundational AI platform — not a contract task. All IP and derivative rights belong to 弛雅有限公司.   7. We are building an offline-first AI Digital Doctor Platform — a real-time interactive avatar system that runs entirely on local hardware. This is not a chatbot project. This is not a website. This is a product-level AI system designed to operate without cloud dependency, with future SaaS scalability. Vision Create a single-node, fully offline AI system capable of: • Real-time doctor-avatar interaction • Low-latency speech-to-speech response • WebRTC-based video interface (Meet-like UX) • Modular LLM / STT / TTS architecture • Local knowledge ingestion & daily sync • Deployable on high-performance laptops or edge machines Phase 1 is a commercial MVP. Phase 2 expands into multi-clinic deployment and enterprise orchestration. ⸻ Technical Scope We are looking for engineers comfortable with: • Local LLM inference (7B–13B class models) • CUDA optimization & VRAM management • Quantization strategies • Streaming STT + TTS pipelines • WebRTC video + data channel integration • Audio-driven avatar rendering • Docker-based modular architecture • Offline RAG and versioned data ingestion This system must: • Run fully offline • Maintain ~1–2s response latency • Be modular and replaceable at each layer • Deliver full source code and deployment documentation ⸻ Who We Want Engineers who: • Have deployed local inference systems before • Understand performance bottlenecks • Can design scalable architecture from day one • Think in systems, not scripts This is an opportunity to build a foundational AI platform — not a contract task. All IP and derivative rights belong to 弛雅有限公司.  

軟體開發

電話
段〇〇光
地區台北市 中正區
金額顧客預算:十萬到五十萬
其他交件時限:急件: • AI 系統整合 • LLM 本地部署 • 語音辨識 STT • WebRTC 視訊工程 • GPU CUDA 優化 • Docker 部署工程師 • 全端工程師 AI 整合
11小時前
程式設計工作
RD 工作
web 接案
1. 網站,後台管理系統,電腦應用程式,其他   2. 其他   3. 其他   4. 其他   5. 其他  
描述: 1. • AI 系統整合 • LLM 本地部署 • 語音辨識 STT • WebRTC 視訊工程 • GPU CUDA 優化 • Docker 部署工程師 • 全端工程師 AI 整合   2. • AI 系統整合 • LLM 本地部署 • 語音辨識 STT • WebRTC 視訊工程 • GPU CUDA 優化 • Docker 部署工程師 • 全端工程師 AI 整合   3. • AI 系統整合 • LLM 本地部署 • 語音辨識 STT • WebRTC 視訊工程 • GPU CUDA 優化 • Docker 部署工程師 • 全端工程師 AI 整合   4. • AI 系統整合 • LLM 本地部署 • 語音辨識 STT • WebRTC 視訊工程 • GPU CUDA 優化 • Docker 部署工程師 • 全端工程師 AI 整合   5. • AI 系統整合 • LLM 本地部署 • 語音辨識 STT • WebRTC 視訊工程 • GPU CUDA 優化 • Docker 部署工程師 • 全端工程師 AI 整合   6. • AI 系統整合 • LLM 本地部署 • 語音辨識 STT • WebRTC 視訊工程 • GPU CUDA 優化 • Docker 部署工程師 • 全端工程師 AI 整合   7. • AI 系統整合 • LLM 本地部署 • 語音辨識 STT • WebRTC 視訊工程 • GPU CUDA 優化 • Docker 部署工程師 • 全端工程師 AI 整合   8. 本專案為本地離線 AI 醫師分身即時影音互動系統,需包含: 1. 本地 LL M 部署(不可依賴******** 2. 語音辨識 STT 與語音合成 TTS 串接 3. WebRTC 即時視訊架構(類 Google Meet 介面) 4. 2D 或簡易 3D 分身動畫整合(嘴型同步) 5. GPU CUDA 優化與效能調校 6. Docker 容器化部署與一鍵啟動 7. 開機自動執行 8. 醫師知識可每日更新並同步 9. 全部原始碼與部署文件完整交付 10. 著作權、修改權、擴充權歸屬弛雅有限公司 11. 不得使用侵權模型或未授權素材  

程式語言家教

電話
Leoxxx
地區新竹縣 竹北市
時間單堂時長:聽從老師的建議
金額上課頻率:聽從老師的建議
2026/2/22

搶先接洽

程式設計工作
程式語言家教
電腦工作
1. Javascript   2. 有,我學習過   3. 其他   4. 手機程式   5. 皆可討論   
描述: 1. 你好,我在找能指導我進行app開發的老師。 我的目標是要開發簡易的網頁app(可用手機開啟於舉辦的活動中使用)。 希望以能完成多個專案並一邊學習的方式進行。 我有python的基礎所以程式的邏輯沒有問題,但各語言的語法就要重頭學習。 程式的本體先用vibe coding作為概念示範就可以, 我希望時間是花在學習更大方向的理解, 例如學習如何架構一個可支援多裝置連線的app,可以用聊天室作為範例,學習node.js, socket.io, html, javascript要如何合力做出成品 並且希望學習關於開發環境的知識(VS code, git, github) 總結來說,希望能有懂vibe coding的老師帶著做各個我想做的專案,並從做中學,把基本功漸漸學好。  

網頁設計

電話
Bilxxx
地區彰化縣 社頭鄉
金額客戶預算:三萬元以下
2026/2/21
程式設計工作
網站接案
網頁接案
1. 任何時候   2. 規劃製作新網站   3. 需要介面流程設計程式建置   4. 購物交易網站   5. 批發零售業  
描述: 1. 都不用 純貿易公司產品展示  

程式語言家教

電話
劉〇琳
地區新竹市 東區
時間單堂時長:聽從老師的建議
金額上課頻率:聽從老師的建議
2026/2/20
程式設計工作
程式語言家教
電腦工作
1. C   2. 有,我學習過   3. 精進自身能力   4. 其他   5. 皆可討論   
描述: 1. Linux ALSA 嵌入式系統   2. 想學習ALSA 音訊系統的使用方式,對於Linux熟練程度約6成,C語言則是8成,再麻煩老師了 謝謝  

軟體開發

電話
段〇〇光
地區台北市 中正區
金額顧客預算:五十到一百萬
其他交件時限:指定交件期限: 第一階段母體系統開發期限為 6–8 週, 需分階段驗收(架構設計完成 → 核心功能完成 → 可上線版本完成)。
2026/2/20
程式設計工作
RD 工作
web 接案
1. 網站,後台管理系統   2. 不清楚,聽從專家的建議   3. 有想法、介面流程設計與測試版   4. 部署,維護,技術支援   5. 有  
描述: 1. 本案為平台型系統母體架構開發(非套版),需具備後端架構設計經驗。 核心包含:RBAC 權限模型、多角色架構、分潤機制、API Layer 設計與模組化擴充能力。 第一階段需完成可上線母體系統,並完整交付原始碼(前端、後端與資料庫)、ERD、API 文件與部署文件。 採分段里程碑付款,智慧財產權及著作權需移轉至甲方,不得技術鎖定。   2. 第一階段母體系統開發期限為 6–8 週, 需分階段驗收(架構設計完成 → 核心功能完成 → 可上線版本完成)。   3. 本案為平台型母體架構開發,非形象網站或套版商城。 需具備後端架構設計能力,能清楚說明 RBAC 權限模型、多角色資料模型、分潤機制資料庫設計與 API Layer 架構設計思路。 重視可擴充性與模組化架構,需避免技術鎖定,並可完整交付原始碼(前端/後端/資料庫)、ERD、API 文件與部署文件。 僅接受具實際平台開發經驗者提案。  

網頁設計

電話
Tobxxx
地區其他地區
金額客戶預算:三萬到五萬元
2026/2/20
程式設計工作
網站接案
網頁接案
1. 越快越好   2. 規劃製作新網站   3. 需要介面流程設計程式建置   4. 商業形象網站,購物交易網站,一頁式購物網站   5. 批發零售業  

程式語言家教

電話
Katxxx
地區台北市 士林區
時間單堂時長:聽從老師的建議
金額上課頻率:聽從老師的建議
2026/2/19
程式設計工作
程式語言家教
電腦工作
1. Python   2. 沒有接觸過程式語言   3. 培養第二專長   4. 網頁   5. 皆可討論   

程式語言家教

電話
Harxxx
地區新竹市 東區
時間單堂時長:60分鐘
金額上課頻率:每週一次
2026/2/18
程式設計工作
程式語言家教
電腦工作
1. Python   2. 沒有接觸過程式語言   3. 精進自身能力   4. 資料庫   5. 星期六 上午  

UI/UX設計

電話
王〇華
地區新竹市 北區
時間希望完成日期:無指定完成日期
金額客戶預算:沒有預算概念
2026/2/18
程式設計工作
ui設計接案
ui設計兼職
1. UI(使用者介面設計)   2. APP(Android),APP(iOS)   3. 需要設計和工程師製作   4. 沒有   5. 新竹市,北區  
描述: 1. 屬於單一品牌(大約10家店) 餐飲商家的外送app