- AIクラッチ Newsletter 世界のAI情報を最速で発信
- Posts
- 2024年10月1日: 主要なAIアップデート - MetaのARグラス、OpenAIの音声モード、そしてMeta、OpenAI、Google DeepMind、Tencentの重要ニュース
2024年10月1日: 主要なAIアップデート - MetaのARグラス、OpenAIの音声モード、そしてMeta、OpenAI、Google DeepMind、Tencentの重要ニュース
先週は、Metaの最新のARグラスからOpenAIの新しい音声機能まで、AIとロボティクスに関する重要なニュースで満たされました。このまとめでは、OpenAI、Google DeepMind、Meta、Tencentなどから発表された最新情報を、技術エコシステム全体への影響とともにご紹介します。
OpenAIの強化: 音声モード、カスタム指示、その他の新機能
OpenAIは、ChatGPT PlusおよびTeamsの加入者向けに、強化された「アドバンスト音声モード」を発表しました。この機能により、ユーザーはAIと音声で対話でき、より自然で直感的な会話が可能になります。
カスタム指示とメモリ: 音声モードのアップグレードに加え、OpenAIは「カスタム指示」と「メモリ」機能を導入しました。これにより、ユーザーはAIとのやり取りを個別にカスタマイズすることができ、各ユーザーの好みや文脈を覚えてもらえるようになります。
自然にインスパイアされた新しい声: また、5つの「自然にインスパイアされた」新しい声が追加され、ユーザーはAIの声をさらに多彩に選べるようになりました。これにより、対話がより魅力的で個別化されたものとなります。
Advanced Voice is rolling out to all Plus and Team users in the ChatGPT app over the course of the week.
While you’ve been patiently waiting, we’ve added Custom Instructions, Memory, five new voices, and improved accents.
It can also say “Sorry I’m late” in over 50 languages.
— OpenAI (@OpenAI)
6:11 PM • Sep 24, 2024
これらの機能により、OpenAIの提供するツールは、多様で適応力のあるAIツールを求めるユーザーにとって、特にプロフェッショナルな環境での効率性とカスタマイズ性を強化するための魅力的な選択肢となります。
Metaの大きな飛躍: Orion ARグラスとLlama 3.2
Metaは今週、"世界で最も進んだARグラス"と称するOrionの発表で注目を集めました。このグラスはAR技術とMeta AIのマルチモーダル機能を組み合わせ、音声制御や手のトラッキングを含むこれまでにないインタラクティブな体験を提供します。
ARとAIの統合: Orionグラスは、ユーザーが見ているすべてを理解するMeta AIの能力を活用し、拡張現実と人工知能をシームレスに融合させています。これにより、リアルタイムの物体認識やインタラクティブなオーバーレイなどが可能です。
Meta AIのアップデート: Metaはまた、オープンソースモデルのファミリーであるLlama 3.2を発表しました。この新バージョンには、2つの中型ビジョンLLM(11Bと90B)および2つの軽量なテキスト専用モデル(1Bと3B)が含まれており、モバイルデバイス向けに設計されています。これにより、ハードウェア制限のあるデバイスでも最先端のAI機能を利用できるようになります。
マルチモーダルコンシューマチャットボット: さらに、消費者向けチャットボットであるMeta AIは完全にマルチモーダルになりました。画像を「見る」ことができるようになり、AIツールを使って写真を編集することも可能です(例: オブジェクトの削除、アクセサリーの追加、背景の変更など)。この機能により、ユーザーの創造力と日常的なメディア編集の実用性が強化されます。
Meta Orion could be an excellent tool for gamifying first-person perspective human video collection for training humanoids.
Holographic labels can guide the data collector through the process and provide real-time scores and feedback on the recorded videos to align with the… x.com/i/web/status/1…
— The Humanoid Hub (@TheHumanoidHub)
6:50 PM • Sep 26, 2024
GoogleとGoogle DeepMindの発表: Gemini AIモデルとAlphaChip
Googleは、Gemini AIシリーズの一環として、2つの新しいプロダクション対応AIモデル、Gemini-1.5-Pro-002とGemini-1.5-Flash-002のリリースを発表しました。
コスト効率とスピード: この発表の際立ったポイントは、Gemini-1.5 Proモデルの価格が50%削減されたことと、Flashで2倍、Gemini-1.5 Proで3倍のレート制限が大幅に向上したことです。これにより、GoogleのAIサービスはより多くのビジネスや開発者にとって手頃で利用しやすくなりました。
Google DeepMindのAlphaChip: Google DeepMindはまた、強化学習を用いてコンピュータチップを設計するAIシステムであるAlphaChipを発表しました。この開発の影響は計り知れません。AIがチップを設計し、そのチップがより高度なAIモデルの訓練に使用されるという自己強化のループが形成され、チップレイアウトの設計が月単位から数時間で完了するようになり、AIハードウェアの革新サイクルが加速しています。
Exclusive: Google just released two upgraded Gemini 1.5 models, 1.5-Pro-002 and 1.5-Flash-002 — achieving new, state-of-the-art performance across math.
I sat down with Logan Kilpatrick (@OfficialLoganK) to discuss the models, AI agents, AGI, and more.
Timestamps:
00:00 Intro… x.com/i/web/status/1…
— Rowan Cheung (@rowancheung)
4:07 PM • Sep 24, 2024
Welcome, AlphaChip!
Today, we are sharing some exciting updates on our work published in @Nature in 2021 on using reinforcement learning for ASIC chip floorplanning and layout. We’re also naming this work AlphaChip.
Since we first published this work, our use of this approach… x.com/i/web/status/1…
— Jeff Dean (@🏡) (@JeffDean)
2:18 PM • Sep 26, 2024
Tencent Robotics: ホームサービスロボット「The Five」
Tencent Roboticsは、新しい車輪付きのホームサービスロボット「The Five」を発表し話題になりました。このロボットは、平坦な地面の移動にとどまらず、車輪の脚を引き込み可能な足に変形させることで階段を登ることができ、より複雑な環境でもナビゲートできます。
適応性: このロボットの特筆すべき点は、収納性を向上させるために折りたたむことができる機能であり、家庭での使用において実用的で利便性があります。多くの企業が家庭用ロボティクスに投資する中で、Tencentのような機動性と実用性を兼ね備えたアプローチは、消費者向けロボティクス市場で独自の地位を築くでしょう。
Tencent Robotics from China unveiled their new robot, The Five.
It features four wheeled legs with retractable feet, allowing it to climb stairs. The robot also has humanoid hands.
— The Humanoid Hub (@TheHumanoidHub)
3:53 PM • Sep 24, 2024
GoogleのNotebookLMとAudio Overviewsのアップグレード
ユーザーの生産性とコンテンツ作成を向上させるために、GoogleはNotebookLMおよびAudio Overviewsを新機能でアップグレードしました。これらのツールはYouTube動画やオーディオファイルに対応し、さまざまな形式のコンテンツをAI生成のポッドキャストに変換します。
Audio Overviews: この機能により、ユーザーはノート、PDF、Google Docsをオーディオサマリーに変換でき、特に聴覚学習を好むユーザーにとってよりアクセスしやすくなります。YouTube動画やオーディオファイルの統合により、ほぼすべてのコンテンツが取り込まれ、要約される可能性が開け、新しい学習やコンテンツ消費の方法を提供します。
結論: AIとロボティクスの未来
今週、OpenAI、Meta、Google、Tencentなどの主要企業から発表されたこれらのニュースは、AIとロボティクスがいかに急速に進化しているかを示しています。対話型の音声モードやARグラス、AI主導のチップ設計、そして多用途のホームロボットに至るまで、これらの革新は産業界と日常生活を変革しています。これらの技術が消費者およびビジネス環境に統合されるにつれ、パーソナライズ、効率性、インタラクティビティの強化の機会が大きく広がっています。
これらの進歩は単なる新機能ではなく、よりAIで強化された世界への根本的なシフトを表しています。コミュニケーションの強化、先進的なウェアラブルを使用した現実の拡張、よりスマートでアクセスしやすいロボティクスの実現を通じて、AIの未来は非常にエキサイティングで変革的なものです。
次回もお楽しみに!
ニュースレターでAIの最新のニュースを配信中!
今だけ無料登録中配信中です!